Title: Die Naturwissenschaften in ihrer Entwicklung und in ihrem Zusammenhange, IV. Band
Author: Friedrich Dannemann
Release date: May 13, 2019 [eBook #59493]
Language: German
Credits: Produced by Peter Becker, Heike Leichsenring and the Online
Distributed Proofreading Team at http://www.pgdp.net
DARGESTELLT VON
FRIEDRICH DANNEMANN
VIERTER BAND:
DAS EMPORBLÜHEN DER MODERNEN NATURWISSENSCHAFTEN
SEIT DER ENTDECKUNG DES ENERGIEPRINZIPS
MIT 70 ABBILDUNGEN IM TEXT UND MIT
EINEM BILDNIS VON HELMHOLTZ
LEIPZIG UND BERLIN
VERLAG VON WILHELM ENGELMANN
1913
Copyright 1913 by Wilhelm Engelmann, Leipzig.
Druck der Königl. Universitätsdruckerei H. Stürtz A. G., Würzburg.
Mit dem vorliegenden, vierten Bande kommt das Unternehmen, die Naturwissenschaften in ihrer Entwicklung und in ihrem Zusammenhange darzustellen, zum Abschluß. Der erste Band führte von den Anfängen bis zum Wiederaufleben der Wissenschaften, der zweite von Galilei bis etwa zur Mitte des 18. Jahrhunderts. Zwischen dem 3. und dem jetzt erscheinenden 4. Bande ließ sich keine scharfe chronologische Schranke ziehen. Beide Bände schildern in der Hauptsache das Emporblühen der modernen Naturwissenschaften, das mit der Wende vom 18. zum 19. Jahrhundert anhebt. Einen gewissen Abschnitt bildet die Aufstellung des Energieprinzips. Die Entdeckung dieses, die moderne Wissenschaft beherrschenden Prinzips war aber keine unvermittelte. Sie wurde durch das Auffinden zahlreicher Tatsachen und Beziehungen allmählich vorbereitet. Infolgedessen tritt das neue Prinzip in den ersten Abschnitten des vierten Bandes erst nach und nach immer deutlicher in die Erscheinung, bis es gegen die Mitte des 19. Jahrhunderts zu einem klaren Ausdruck und seitdem zur bewußten Ausdehnung auf sämtliche Naturwissenschaften gelangt. Gleichzeitig erfolgt auf dem Gebiete der organischen Wissenschaften das Emporkeimen des Entwicklungsgedankens. Wir stehen noch heute inmitten des Ringens, das an der Hand dieser umfassenden, dem 19. Jahrhundert sein Gepräge verleihenden Prinzipien zu immer größerer Klarheit führen wird. Es mußte daher das Ziel des letzten Bandes sein, den Wegen nachzugehen, die von dem älteren, gesicherten Bestande zu den Problemen des Tages hinüberführen. Als Marksteine auf diesen Wegen begegnen uns die Originalarbeiten der großen Forscher. Diese Arbeiten sind durch Ostwalds umfangreiches Unternehmen der »Klassiker der exakten Wissenschaften« weiteren Kreisen zugänglicher geworden. Der Aufgabe, für dieses Unternehmen gewissermaßen einen Rahmen zu schaffen, ist sich der Verfasser auch in dem vorliegenden Bande stets bewußt geblieben.
Nur unter Beachtung der erwähnten Gesichtspunkte war es möglich, den immer mehr anschwellenden Stoff zu bewältigen und die Darstellung zu einem hoffentlich glücklichen Abschluß zu führen. Da die Beschränkung auf das Wichtigste und das Allgemeine für den letzten Band noch mehr geboten schien als für die drei übrigen, so darf man das nunmehr vollendete Werk nicht als ein Nachschlagebuch betrachten und es gar unbefriedigt aus der Hand legen, wenn es über dieses oder jenes Einzelwissen keine Auskunft gibt. Trotzdem wurde auf ein ausführliches Namen-, Sach- und Literaturverzeichnis nicht verzichtet, da es immerhin erwünscht ist, die Zusammengehörigkeit der im Text getrennten Angaben rasch auffinden zu können.
Hoffentlich ist es gelungen, ein Werk zu schaffen, das die Beziehungen der Naturwissenschaften unter sich und zu den Nachbargebieten im Rahmen der Gesamtentwicklung aufweist und das den weitesten Kreisen der Forschenden, der Lehrenden und Lernenden dasjenige bringt, was zu einem tieferen Verständnis des heutigen Wissenschaftsgebäudes nötig ist. Auch solchen, die ihre Aufgabe in der Anwendung der Wissenschaften erblicken, wie den Ärzten und den Technikern, dürfte das Gebotene willkommen sein, um so mehr, als auf wichtige Anwendungen der Wissenschaft an vielen Stellen Bezug genommen ist. Was die Wissenschaftsgeschichte für die Gegenwart bedeutet, wird zu Beginn des ersten Abschnittes geschildert. In seinem zweiten Teile wird dann der Faden der zusammenhängenden Darstellung wieder aufgenommen.
Friedrich Dannemann.
1. Wissenschaft und Wissenschaftsgeschichte.
1. Einleitendes. – 2. Einzeldarstellungen und Schilderung der Gesamtentwicklung. – 3. Förderung der Wissenschaftsgeschichte. – 4. Vorlesungen über Wissenschaftsgeschichte. – 6. Wert des geschichtlichen Studiums. – 8. Geschichte der Medizin und der Technik. – 9. Anfänge der Wissenschaft. – 10. Rückblick auf das Altertum. – 12. Das Weltbild im Altertum. – 13. Das Experiment im Altertum. – 14. Naturwissenschaft und Philosophie. – 15. Rückblick auf das Mittelalter. – 16. Das arabische Zeitalter. – 17. Das Wiederaufleben der Wissenschaften. – 19. Das Zeitalter Galileis. – 21. Newtons Zeitalter. – 23. Astronomie der Fixsterne – 25. Einheitliche Auffassung der Natur.
2. Die Astronomie nach ihrer Begründung als Mechanik des Himmels.
27. Die Entdeckung des Uranus. – 29. Die Parallaxe der Fixsterne. – 32. Die Länge des Sekundenpendels. – 34. Enckes Komet. – 35. Himmelskarten. – 36. Sonnenparallaxe. – 37. Bahnberechnungen.
3. Die älteren Zweige der Physik bis zu ihrem Eintritt in das Zeitalter des Energieprinzips.
38. Die Entdeckung der Osmose. – 40. Die Entdeckung der Diffusion. – 42. Trennung durch Dialyse. – 43. Kolloide und Kristalloide. – 44. Osmotische Vorgänge. – 45. Ausdehnungskoeffizient der Gase. – 46. Rudbergs Nachprüfung. – 47. Versuche von Magnus und Regnault. – 48. Die Natur des gasförmigen Zustandes. – 50. Kritische Temperatur. – 51. Permanente Gase. – 52. Zustandsgleichung. – 53. Avogadros Regel. – 55. Dampfdichtebestimmung. – 57. Theoretische Optik. – 58. Dopplers Prinzip. – 60. Polaristrobometer. – 61. Stereoskop. – 63. Schlierenapparat. – 65. Lichtgeschwindigkeit. – 67. Emission oder Undulation. – 68. Licht und Wärme.
4. Die Begründung der neueren Elektrizitätslehre.
69. Faraday. – 71. Elektrizität und Magnetismus. – 72. Die Entdeckung der Induktion. – 74. Aragos Versuch. – 76. Wärmewirkung der Induktionsströme. – 77. Induzierende Wirkung des Erdmagnetismus. – 79. Die Ent[Pg vi]deckung des Extrastromes. – 82. Entladung durch Gase. – 84. Elektrizitätsarten. – 85. Chemische Wirkungen der Elektrizität. – 86. Magnetelektrische Maschine. – 87. Voltaelektrometer. – 88. Elektrolytisches Grundgesetz. – 90. Bekämpfung der Kontakttheorie. – 91. Chemische Theorie des Stromes. – 92. Magnetisierung des Lichtes. – 94. Diamagnetismus. – Diëlektrikum. – 96. Theorie der Elektrizität. – 97. Das Biot-Savartsche Gesetz. – 98. Ampères elektrodynamisches Grundgesetz. – 99. Georg Simon Ohm. – 100. Das Ohmsche Gesetz. – 102. Wärmewirkung des Stromes. – 103. Das Joulesche Gesetz. – 104. Thermoströme. – 105. Peltiers Phänomen. – 106. Stärke der Induktionsströme. – 107. Lenzsches Grundgesetz. – 108. Franz Ernst Neumann. – 109. Die Theorie induzierter Ströme. – 110. Webers elektrodynamisches Grundgesetz. – 111. Die Theorie der Induktion. – 112. Webers Tangentenbussole. – 113. Elektrochemisches Äquivalent. – 115. Elektrodynamometer. – 116. Einheit der Elektrizität.
5. Die Begründung der organischen Chemie und ihr Einfluß auf die Entwicklung der chemischen Vorstellungen.
118. Einleitendes. – 119. Radikale. – 120. Radikaltheorie. – 122. Liebig. – 124. Chemische Laboratorien. – 125. Wöhler. – 126. Isomerie. – 127. Synthese organischer Verbindungen. – 128. Säuren und Salze. – 129. Basizität der Säuren.– 130. Benzol. – 131. Benzolderivate. – 132. Organische Säuren. – 133. Bunsen. – 134. Das Radikal Kakodyl. – 136. Organische und unorganische Chemie. – 137. Alkohole und Säuren. – 138. Radikale und Typen. – 139. Begründung der Typentheorie. – 140. Einzelne Typen. – 141. Doppeltypen. – 142. Gemischte Typen. – 143. Äquivalent, Atom, Molekül. – 144. Anfänge der Strukturtheorie.
6. Die Begründung der Physiologie als eines besonderen Wissenszweiges.
146. Einleitendes. – 147. Physiologie und Bodenkunde. – 148. Chemie und Physiologie. – 149. Naturwissenschaft und Medizin. – 150. Naturwissenschaft und Philosophie. – 151. Physiologie und Anatomie. – 152. Physiologie der Sinnesorgane. – 154. Erschütterung der Lehre von der Lebenskraft.
7. Die Zelle wird als das Grundorgan der pflanzlichen und tierischen Organismen erkannt.
155. Erneuerung der Pflanzenanatomie. – 156. Fortschritte der Mikroskopie. – 157. Tier- und Pflanzenzellen. – 158. Elementarorganismen. – 159. Die Zusammensetzung der Zellen. – 160. Der Organismus, ein Zellenstaat. – 161. Zellularpathologie. – 162. Die Entstehung der Zellen. – 163. Die Natur des Protoplasmas. – 164. Wachstum und Werden der Zellen. – 165. Entwicklung und Morphologie der Gewebe. – 166. Das Gefüge der organisierten Substanz.
8. Die Geologie im Zeitalter des Aktualismus und in engerer Verknüpfung mit den übrigen Naturwissenschaften.
167. Abkehr von der Katastrophentheorie. – 169. Die Zeit als geologischer Faktor. – 171. Geologie und Biologie. – 172. Das Leben als geologischer Faktor. – 173. Ehrenbergs Mikrogeologie. – 174. Korallen und Korallenriffe. – 175. Gebirgsbildung. – 176. Tiefseeforschungen.
9. Die Ausdehnung des Energieprinzips auf sämtliche Naturwissenschaften.
177. Das Prinzip vom ausgeschlossenen Perpetuum mobile. – 178. Der Zusammenhang der Kräfte. – 179. Robert Mayer. – 180. Wärme und Arbeit. – 181. Das mechanische Äquivalent der Wärme. – 182. Die Äquivalenz sämtlicher Naturkräfte. – 183. Das Wesen der Kräfte. – 185. Physik und Biologie. – 186. Joule. – 187. Die Bestimmung des Wärmeäquivalents. – 189. Colding. – 190. Helmholtz. – 191. Lebendige Kraft und Spannkraft. – 192. Das Prinzip von der Erhaltung der Kraft. – 194. Der Kraftvorrat des Sonnensystems. – 195. Mechanische Wärmetheorie. – 196. Hauptsätze der mechanischen Wärmetheorie. – 198. Die kinetische Gastheorie. – 200. Die Thermodynamik der Lösungen.
10. Neuere Fortschritte in der Erforschung des organischen Lebens.
201. Biologie der Mikroorganismen. – 204. Die Erreger der Gärung und der Fäulnis. – 205. Fortpflanzung durch Schwärmsporen. – 206. Sexualität der Kryptogamen. – 207. Verwandtschaftliche Zusammenhänge. – 208. Erklärung der Lebenserscheinungen. – 209. Anatomie und Physiologie. – 210. Aufbau der Gewebe. – 211. Die Reizbarkeit. – 212. Richtungsbewegungen. – 213. Mechanik der Bewegungen. – 214. Mechanik des Saftsteigens. – 216. Organisation des Protoplasmas. – 217. Physik und Physiologie. – 218. Puls- und Wellenlehre. – 220. Mechanik der Sekretionsvorgänge. – 222. Messung des Sekretionsdruckes. – 223. Physiologie und graphisches Verfahren. – 224. Die Erklärung des Farbenwechsels. – 225. Interferenz und Pigmente. – 226. Reflextätigkeit. – 227. Chromatische Funktion. – 228. Physiologie des Gesichtssinnes. – 229. Entoptische Erscheinungen. – 230. Physiologie und Psychologie. – 231. Experimentelle Grundlagen der Psychologie. – 233. Das psychophysische Grundgesetz. – 234. Individuelles und phylogenetisches Gedächtnis. – 235. Nerventätigkeit. – 236. Lehre von der Lebenskraft. – 237. Verwandtschaft und Entwicklung. – 238. Parthenogenese. – 239. Generationswechsel. – 241. Tier- und Pflanzenleben.
11. Die wissenschaftliche Begründung der Entwicklungslehre.
243. Organismus und Umwelt. – 244. Umbildung durch Anpassung. – 245. Aussterben und Entstehen von Arten. – 246. Entwicklungsgeschichtliche [Pg viii]Methode. – 247. Verwandtschaftliche Beziehungen. – 248. Morphologie und Embryologie. – 249. Gemeinsame Urform. – 250. Die Bedeutung der Übergangsformen. – 251. Charles Darwin. – 252. Mechanisch wirkende Ursachen. – 253. Die Malthussche Lehre. – 254. Natürliche Zuchtwahl. – 255. Beweismittel der Deszendenztheorie. – 256. Unzulänglichkeit der Darwinschen Theorie. – 257. Abstammung des Menschen. – 258. Biogenetisches Grundgesetz. – 259. Entwicklungsmechanik. – 260. Bastardbildung. – 262. Mendels Versuche. – 263. Dominierende und rezessive Merkmale. – 264. Mendelsche Regeln. – 266. Mendelismus.
12. Geologie und Mineralogie unter dem Einfluß der chemisch-physikalischen Forschung.
268. Mikroskopie und Gesteinskunde. – 269. Ergebnisse der Gesteinsmikroskopie. – 270. Geologische Experimente. – 271. Gebirgsbildung. – 272. Erdbebenforschung. – 273. Das Leben als geologischer Faktor. – 274. Mikrogeologische Studien. – 275. Gletscher und Moränen. – 276. Das Eis als geologischer Faktor. – 277. Die Lehre von den Eiszeiten. – 278. Gestalt und Masse der Erde. – 279. Form und Eigenschaften der Mineralien. – 280. Ableitung der Kristallsysteme. – 282. Kristallographie und Mathematik. – 283. Kristallographie und Physik. – 284. Die Entstehung der Mineralien.
13. Die Entwicklung der Strukturchemie und der Systematik der chemischen Elemente.
286. Valenztheorie und Strukturchemie. – 287. Atomverkettung. – 288. Strukturformeln. – 289. Aromatische Verbindungen. – 290. Benzoltheorie. – 292. Bestimmung des chemischen Ortes. – 294. Erweiterung der Benzoltheorie. – 295. Fortschritte der Synthese. – 296. Physikalische Isomerie. – 297. Symmetrischer und asymmetrischer Aufbau. – 298. Die Anfänge der Stereochemie. – 299. Döbereiners Triaden. – 301. Versuch einer Gruppierung sämtlicher Elemente. – 302. Nachprüfung der Atomgewichte. – 303. Das periodische System. – 306. Vorhersage der Existenz des Germaniums.
14. In der Spektralanalyse und in der Photographie entstehen die wichtigsten neuzeitlichen Forschungsmittel.
309. Anfänge der Spektralanalyse. – 310. Die Entdeckung der Fraunhoferschen Linien. – 312. Bunsen und Kirchhoff erfinden das Spektroskop. – 313. Die Spektren der Metalle. – 314. Die Empfindlichkeit der Spektralreaktion. – 316. Die Umkehrung der Spektren. – 317. Emission und Absorption. – 318. Die spektralanalytische Untersuchung der Sonne. – 320. Die Entdeckung neuer Elemente. – 322. Verbesserungen des Spektroskops. – 323. Anwendungen der Spektralanalyse. – 324. Spektroskopie und Astronomie. – 325. Anfänge der Photographie. – 327. Photographie und Astronomie. – 328. Farbenphotographie.
15. Das Emporblühen der physikalischen Chemie.
330. Physikalische und chemische Eigenschaften. – 331. Photochemische Messungen. – 334. Photochemische Induktion. – 335. Photochemie und Astronomie. – 336. Photochemische Wirkungen des Spektrums. – 337. Polarisiertes Licht und chemische Zusammensetzung. – 338. Polarisation und kristallinisches Gefüge. – 339. Chemisch-optische Untersuchungen. – 342. Drehungsvermögen und chemisches Gleichgewicht. – 345. Dynamisches oder statisches Gleichgewicht. – 346. Affinität und Wärmetönung. – 347. Grundgesetz der Thermochemie. – 349. Abnorme Dampfdichten. – 350. Theorie der Dissoziation. – 352. Thermodynamische Untersuchungen. – 353. Massenwirkungsgesetz. – 354. Reaktionsgeschwindigkeit. – 356. Geschwindigkeitskoeffizient. – 357. Reaktionsverlauf. – 358. Bedingungen des Gleichgewichtszustandes. – 359. Mechanik der chemischen Vorgänge. – 360. Grundgesetze der chemischen Mechanik. – 362. Osmotische Untersuchungen. – 363. Ähnlichkeit des gasförmigen und des gelösten Zustandes. – 364. Osmotischer Druck und absolute Temperatur. – 365. Ausdehnung der Gasgesetze auf Lösungen. – 366. Dissoziation in Lösungen. – 367. Theorie der elektrolytischen Dissoziation. – 368. Der Vorgang der Elektrolyse. – 370. Die Wanderung der Ionen. – 371. Leitfähigkeit der Elektrolyte.
16. Neuere Fortschritte der theoretischen und der angewandten Physik.
373. Fortschritte der mathematischen Physik. – 374. Fortschritte der Akustik. – 375. Analyse des Klanges. – 376. Fortschritte der Optik. – 377. Physiologie und Optik. – 378. Physiologie und Psychophysik. – 379. Fortschritte der Elektrizitätslehre. – 380. Elektrische Schwingungen. – 382. Die Versuche von Hertz. – 383. Elektrische Strahlen. – 384. Licht und Elektrizität. – 385. Funkentelegraphie. – 386. Faradays Kraftlinien. – 387. Maxwellsche Theorie. – 388. Elektromagnetische Theorie des Lichtes. – 389. Elektronentheorie. – 390. Theorie der galvanischen Elemente.
17. Die Naturwissenschaften und die moderne Kultur.
392. Die Grundlagen der chemischen Industrie. – 393. Chemische Industrie und Leuchtgaserzeugung. – 394. Neue Herstellungsweisen. – 396. Die organisch-chemische Industrie. – 397. Wichtige Synthesen. – 398. Technik und Physik. – 399. Telegraphie und Telephonie. – 400. Galvanoplastik. – 401. Elektrisches Licht. – 402. Elektrizitätsquellen. – 403. Dynamoelektrisches Prinzip. – 404. Elektrotechnik und Chemie. – 405. Neue wirtschaftliche Probleme. – 407. Wissenschaft und Produktion. – 408. Materielle und geistige Kultur. – 409. Naturwissenschaft und Erkenntnistheorie. – 410. Naturwissenschaft und Geisteswissenschaften. – 411. Ethische Bedeutung der Naturwissenschaften. – 412. Grenzen der Naturwissenschaften. – 413. Ausgestaltung des Weltbildes.
18. Aufgaben und Ziele.
415. Fortschritte der Methode. – 416. Forschungsinstitute. – 417. Tiefe und hohe Temperaturen. – 419. Verknüpfung der Wissenschaftsgebiete. – 421. Neue physikalische Gebiete. – 422. Die Entdeckung der Radioaktivität. – 423. Neue Strahlengattungen. – 424. Elektronentheorie. – 426. Fortschritte der Methoden. – 427. Fortschritte der Photographie und Mikroskopie. – 429. Fortschritte der Astronomie. – 430. Astronomische Probleme. – 431. Probleme der Biologie. – 433. Schlußwort.
Namenverzeichnis für Band I-IV | S. 434 |
Sachverzeichnis für Band I-IV | S. 453 |
Literaturverzeichnis für Band I-IV | S. 470 |
Verzeichnis der Abbildungen für Band IV | S. 506 |
Von keinem Gegenstand im gesamten Bereich unserer Erfahrung besitzen wir einen klaren Begriff, wenn wir uns nicht seine Entwicklung vergegenwärtigen können. Am längsten gilt dieser Satz für das Verständnis der Staatengebilde. Für alles, was den Menschen als Staatsbürger angeht, hat daher stets die Geschichte als die große Lehrmeisterin gegolten. Auch die heutige Naturwissenschaft steht unter dem Einfluß des Entwicklungsgedankens. Dieser Gedanke hat im Laufe des 19. Jahrhunderts alle Gebiete erobert, besonders, seitdem es gelungen ist, die allmähliche Entwicklung der Tier- und Pflanzenwelt begreiflich zu machen. Sonderbarerweise hat man die Wissenschaft selbst erst in der neuesten Zeit häufiger und tiefer eindringend unter dem Gesichtspunkte der Entwicklung ins Auge gefasst. Und doch gilt gerade hier der Satz, daß sich erst aus der Einsicht in das Werden ein richtiges Verständnis für das Gewordene gewinnen läßt.
Eine bedeutende Anregung empfing die Geschichte der Wissenschaften um die Mitte des vorigen Jahrhunderts durch die Bayrische Akademie. Sie ließ nämlich die Geschichte der einzelnen Wissenszweige durch hervorragende Fachleute bearbeiten. So entstanden die Geschichte der Botanik von Sachs, die Geschichte der Zoologie von Carus, die Geschichte der Astronomie von Wolff usw. Etwa zur selben Zeit, als die Bayrische Akademie ihr großes Unternehmen ins Werk setzte, entstand Poggendorffs biographisch-literarisches Handwörterbuch, das noch heute und noch wohl für lange Zeit als eins der wichtigsten Hilfsmittel der historischen Forschung zu betrachten ist. Die Geschichtsschreibung auf naturwissenschaftlichem Gebiete nahm während des 19. Jahrhunderts nicht nur an Umfang zu, sondern sie ging auch mehr in die Tiefe. Das bloße Verzeichnen der Tatsachen und das[Pg 2] biographische Moment traten zurück gegenüber dem Bestreben, die allmähliche Entwicklung der Gedanken zu verfolgen. In dieser Hinsicht fand die Geschichte der Naturwissenschaften gute Vorbilder in der neueren Behandlung der Geschichte der Philosophie und in der Literaturgeschichte. Wie man es auf diesen Nachbargebieten gelernt hatte, vor allem in das Werden und in das Reifen der philosophischen oder der literarischen Richtungen und Einzelschöpfungen einzudringen, so erblickte man auch auf unserem Gebiete die Hauptaufgabe immer mehr in der Darstellung des Werdens, der Klärung der grundlegenden Begriffe und darin, diesen Vorgang des Werdens aus möglichst allen Umständen und treibenden Ursachen heraus zu verstehen. Als ein Beispiel für diese Art der Geschichtsschreibung kann Dührings kritische Geschichte der allgemeinen Prinzipien der Mechanik gelten. Auch die bekannten historisch-kritischen Werke von Mach über die Mechanik und über die Wärmelehre gehören hierher.
Was das 19. Jahrhundert auf dem Gebiete der Wissenschaftsgeschichte bot, blieb indessen, von wenigen Ausnahmen abgesehen, Spezialgeschichte. Neben besonderen Geschichtswerken über Mechanik und Wärmelehre entstanden solche über Optik, Elektrizitätslehre, Elektrochemie, Geologie, Meteorologie, Mineralogie usw. So wichtig die historische Bearbeitung begrenzter Teilgebiete ist, so wenig interessiert sie weitere Kreise. Man kann nicht einmal dem Physiker, geschweige denn dem Studierenden der Physik zumuten, sich über die Geschichte eines jeden Teilgebietes dieser Wissenschaft durch ein besonderes Werk zu unterrichten. Auch auf chemischem Gebiete ist die Anzahl der geschichtlichen Werke nicht gering. Ein Mangel, der den meisten anhaftet, besteht darin, daß sie zu wenig die Beziehungen zu den übrigen Wissensgebieten und zum allgemeinen Gange der Kulturentwickelung aufdecken. Eine Ausnahme hiervon bildet die Geschichte der induktiven Wissenschaften von Whewell. Das Werk gehört indessen der ersten Hälfte des neunzehnten Jahrhunderts und damit eigentlich selbst schon der Geschichte an. (Eine deutsche Übersetzung erschien vor 70 Jahren.)
Eine Geschichtsschreibung, wie wir sie für die Naturwissenschaften neben Einzeldarstellungen brauchen, muß diese Wissenschaften im Rahmen der Gesamtentwickelung darstellen. Ferner ist der Werdegang der Naturwissenschaften nicht nur als ein Ergebnis der gesamten Kultur, sondern auch unter Bezugnahme auf die Entwicklung der übrigen Wissenschaften, insbesondere der[Pg 3] Philosophie, der Mathematik, der Medizin und Technik zu verfolgen. Vor allem ist zu zeigen, wie sich diese Zweige des Denkens und der Forschung gegenseitig gefordert und bedingt haben. Eine von einer solchen Auffassung durchdrungene Darstellung der Geschichte der Naturwissenschaften wäre vielleicht imstande, Du Bois Reymonds Wort, daß sie die eigentliche Geschichte der Menschheit sei, zu rechtfertigen[1].
Zur Belebung des Studiums der Wissenschaftsgeschichte ist bisher nur wenig geschehen. Die zur Pflege dieses Studiums auf der Hamburger Naturforscherversammlung im Jahre 1901 ins Leben gerufene Deutsche Gesellschaft für Geschichte der Medizin und der Naturwissenschaften zählt augenblicklich nur einige hundert Mitglieder. In diese Zahl sind aber auch Institute und Bibliotheken eingeschlossen, welche die Mitgliedschaft nur deshalb erworben haben, um die regelmäßig erscheinenden Veröffentlichungen der Gesellschaft ihren Bücherbeständen einzuverleiben. Ihren eigentlichen Hort findet die Geschichte im weitesten Sinne auf den Hochschulen, die ja selbst fast alle eine Jahrhunderte umfassende Geschichte hinter sich haben. Eingedenk des alten heraklitischen Wortes, daß nicht in der Kenntnis des einzelnen Gewordenen, sondern auf der Kenntnis des Werdens die Vernunft beruht, wird auf den Hochschulen neben der allgemeinen Geschichte eine ganze Reihe von historischen Sondergebieten gepflegt. Nur hinsichtlich der Wissenschaftsgeschichte haben die Universitäten und leider auch die technischen Hochschulen bisher eine Ausnahme gemacht. Und doch gilt es gerade hier, die größten und lohnendsten Aufgaben auf dem Gebiete der Geschichtsforschung und in der Pflege des historischen Sinnes zu erfüllen. Den Versuch, umfassende Vorlesungen über die Geschichte der Wissenschaften zu veranstalten, hat man bis jetzt nur in Wien und gelegentlich in München unternommen. Was man hin und wieder findet, sind Vorlesungen über eng begrenzte Gebiete. So weisen die Vorlesungsverzeichnisse für das Sommersemester 1911 einige einstündige Kollegs über neuere Geschichte der Chemie, die Experimentierkunst des Paracelsus, die Entstehung des Getreidebaues, die Kulturgeschichte der Nutz- und Medizinpflanzen und ähnliches auf. »Vollständige Vorlesungen über die Geschichte der Mathematik, Astronomie, Geologie, Botanik, Zoologie, Geographie sucht man[Pg 4] überall vergebens«2. Ja, es gibt sogar eine ganze Anzahl von Universitäten, an denen nicht einmal das bescheidenste historische Spezialkolleg über die Entwicklung der so gewaltig emporgeblühten Naturwissenschaften gehalten wird, während Vorlesungen über die Geschichte der verschiedenen Künste, der Literaturen, der philosophischen Systeme usw. nirgends fehlen. Im Sommer 1911 waren es nicht weniger als 15 deutsche Universitäten, an denen überhaupt keine historische Vorlesung aus den Gebieten der Mathematik und der Naturwissenschaften gehalten wurde3. Es befanden sich darunter Universitäten wie München, Bonn und Göttingen. Hoffentlich tritt hierin bald eine Wandlung ein. Ganz besonders müßte es sich München als Sitz des Deutschen Museums für Geschichte der Naturwissenschaften und der Technik angelegen sein lassen, in Verbindung mit jenem Museum die Geschichte der Naturwissenschaften nicht ausschließlich durch die Anhäufung toter Gegenstände, sondern auch durch das lebendige Wort zu pflegen.
Mit der Frage, wie dem bestehenden Mangel des Hochschulunterrichtes abzuhelfen sei, hat sich als das hierzu ganz besonders berufene Organ die Deutsche Gesellschaft für Geschichte der Medizin und der Naturwissenschaften wiederholt beschäftigt. Im Jahre 1903 gelangte diese Gesellschaft einstimmig zu der Forderung, daß an den Hochschulen nicht nur gelegentlich, sondern regelmäßig und systematisch über die Entwicklung sowohl der Heilkunde als auch der einzelnen Naturwissenschaften Lehrvorträge gehalten werden sollten4.[Pg 5] Eine so weitgehende Forderung hat aber zunächst kaum Aussicht auf Verwirklichung. Man beschränke sich deshalb lieber darauf, für die Geschichte der Medizin und für die Geschichte der Naturwissenschaften je einen Lehrstuhl zu fordern. Das Bedenken, daß der einzelne nicht imstande sei, die sämtlichen Gebiete der Medizin oder der Naturwissenschaft in den Bereich seines Forschens und Denkens zu ziehen, ist nicht stichhaltig. Mit Recht bemerkt hierzu Professor Sigmund Günther in München, der wiederholt für eine bessere Pflege der Geschichte der Naturwissenschaften eingetreten ist, das folgende: »Nicht um Detailwissen, nicht um Beschäftigung mit Einzelproblemen handelt es sich hier, sondern darum, ein Bild von den großen Ideen sowohl als von den Errungenschaften, die man ihnen verdankt, zu zeichnen.« Mit feinem Spott wendet sich Günther gegen die leider nicht selten anzutreffende Meinung, daß es das Wahrzeichen eines richtigen Gelehrten sei, sich selbst auf den seinen Studien naheliegenden Gebieten als ein vollständiger Laie zu erweisen, und nur als Kenner ersten Ranges auf seinem eigenen, engen Arbeitsfelde gelten zu wollen.
Gerade in Anbetracht dieses, von Günther nicht mit Unrecht verspotteten Mangels muß auf die große Bedeutung der geschichtlichen Betrachtungsweise immer wieder hingewiesen werden. Je mehr sich nämlich die Tätigkeit des einzelnen Forschers auf ein kleines, im Verhältnis zur Wissenschaft manchmal recht winziges Arbeitsfeld beschränkt, um so dringender ist es notwendig, von Zeit zu Zeit den Blick auch wieder auf die Gesamtwissen[Pg 6]schaft zu richten. Sie in ihrem gegenwärtigen Umfange zu überschauen, ist allerdings nicht möglich. Wohl aber können wir sie uns in einem geschichtlichen Rückblick vergegenwärtigen, die Haupttatsachen und die wichtigsten Gedanken verfolgen, sie verknüpfen und so zu einer vertieften Auffassung gelangen.
Eine wertvolle Frucht des geschichtlichen Studiums ist auch darin zu erblicken, daß es vor übertriebener Einseitigkeit bewahrt. Ist doch die allzu einseitige Betonung bestimmter Richtungen in der Wissenschaft nicht selten ein Hemmnis für ihre Entwicklung gewesen. Die Geschichte lehrt bis in die neueste Zeit, daß solche Einseitigkeiten meist auf Rechnung der berufsmäßigen Vertreter der Wissenschaft zu setzen sind. So waren beispielsweise die Botaniker von Fach ausschließlich mit dem Ausbau des Linnéschen Systems beschäftigt, als der Rektor Sprengel die Blütenbiologie begründete und damit der Wissenschaft seiner Zeit um Jahrzehnte vorauseilte. Und als hundert Jahre früher Grew und Hales die Anfänge einer wissenschaftlichen Anatomie und Physiologie der Pflanzen schufen, schenkten ihnen die Fachbotaniker kaum Beachtung. Ähnliche Beispiele lassen sich aus jedem Gebiete anführen, ohne daß dadurch die Stetigkeit und Folgerichtigkeit in der Entwicklung der Wissenschaft, wenn wir sie als großes Ganzes ins Auge fassen, eine Unterbrechung erlitten hätte.
Die genetische Betrachtungsweise ist ferner wie nichts anderes geeignet, vor dogmatischer Überschätzung der heute geltenden Theorien zu bewahren. Wer sich der historischen Betrachtung verschließt, ist leicht geneigt, an ein unvermitteltes Entstehen der Theorien zu glauben. Ein Beispiel aus der neuesten Zeit bietet das Aufkommen der Ionentheorie. Arrhenius, der zu den Schöpfern der neuesten chemischen Vorstellungen zählt, hat in einer ausführlichen historischen Darlegung nachgewiesen, »daß die neuen theoretischen Vorstellungen aus den alten, allgemein anerkannten Ideen herausgewachsen sind«5. Gerade das, sagt er, ist ihr verheißungsvollster Zug. Denn ohne Zweifel ist es ein Beweis, daß man sich auf dem rechten Wege befindet, wenn sich in der Entwicklung der Theorien eine logische Konsequenz beobachten läßt.
Diese Konsequenz, verbunden mit einer stetig zunehmenden Läuterung der Vorstellungen, gibt der Geschichte der Naturwissenschaften ein Gepräge, über das man immer wieder staunen muß.[Pg 7] In welchem Maße gilt dies z. B. von dem Weltbild, das sich im Wandel der Zeiten aus der Beobachtung der Himmelserscheinungen ergeben hat! Die Grundzüge der Astronomie lassen sich gar nicht darstellen, ohne auf die Forschungen, Vorstellungen und Gedankengänge eines Koppernikus, Kepler, Newton, Laplace, Herschel fortgesetzt Rücksicht zu nehmen. Das gleiche gilt in der Physik von Archimedes, Galilei, Guericke, in der Chemie von Lavoisier, Dalton, Berzelius, Liebig und zahlreichen anderen großen Forschern.
Wie in jeder Geschichte, so spielt auch in der Wissenschaftsgeschichte das biographische Moment eine, wenn auch mehr nebensächliche Rolle. Ich glaube, daß die früher allzu starke Betonung dieses Momentes die Wissenschaftsgeschichte etwas herabgesetzt und ihre wahre Bedeutung verschleiert hat. Was will es für die Entwicklung der Naturwissenschaften z. B. heißen, ob Galilei das Wort: »Und sie bewegt sich doch!« wirklich gesprochen hat oder nicht, ob er seine Fallversuche vom schiefen Turm in Pisa anstellte oder von irgend einem anderen. Für die Spezialforschung mögen solche Dinge ein gewisses Interesse haben. Für das Emporkommen einer das geistige Leben durchdringenden Geschichte der Naturwissenschaften ist ihre Häufung jedenfalls nachteilig. Mit Recht wird man das biographische Moment stets dann verwerten, wenn es zum Verständnis der Entwicklung wesentlich beiträgt. So ist es beispielsweise von Bedeutung, daß Kepler zu Tycho, dem unerreichten Meister der astronomischen Meßkunst, in ein persönliches Verhältnis trat, weil er dadurch die astronomischen Daten über den Mars erhielt und in den Stand gesetzt wurde, die Gesetze der Planetenbewegung zu entdecken.
Bei der Beurteilung des biographischen Momentes darf ferner nicht vergessen werden, daß oft erst aus der Kenntnis der großen Persönlichkeit, deren Schaffen wir miterleben und des allgemeingeschichtlichen Hintergrundes, von dem sie sich abhebt, das tiefere Verständnis für den Verlauf und das schließliche Ergebnis des geistigen Fortschritts erwächst. In einer Betrachtung der Naturwissenschaften unter diesem Gesichtswinkel liegt auch ein Teil ihrer ethischen Wirkung. Die großen Forscher bieten meist glänzende Beispiele geistiger und sittlicher Selbstzucht. Die Taten, die sie auf dem Felde der Wissenschaft verrichteten. verdienen die höchste Bewunderung. Um sich ihren Idealismus zu bewahren, muß sich unsere Zeit für die Führer der Menschheit begeistern,[Pg 8] zu denen die Schöpfer der Wissenschaft und der Technik nicht minder zählen als die großen Dichter und Denker.
Eine ähnliche Bedeutung wie für die Forschung und das Studium besitzt die geschichtliche Betrachtungsweise für den naturwissenschaftlichen Unterricht und damit für die Allgemeinbildung. Allerdings wird ihre Bedeutung hier bislang noch weniger gewürdigt, während doch nichts so sehr imstande ist, den naturwissenschaftlichen Unterricht wahrhaft humanistisch zu gestalten wie die genetische Betrachtungsweise. In der Regel begnügt man sich damit, einige Namen und historische Daten mitzuteilen, die nur das Gedächtnis belasten. Und doch gibt es kein wirksameres Mittel, den Unterricht zu beleben, als das Eindringen in das geschichtliche Werden der Probleme. Selbstverständlich sollen nach wie vor Beobachtung und Versuch im Vordergrunde stehen und die fundamentalen Gesetze auf induktivem Wege erarbeitet werden. Aber gerade auf diesem Wege kann das genetische Verfahren in viel höherem Maße, als es bisher geschehen, das verständnisvolle Eindringen in den Zusammenhang der Erscheinungen unterstützen.
Eine nicht geringere Bedeutung wie für das Gebiet der Naturwissenschaften besitzt die historische Forschung und die Erziehung zum historischen Denken für die Anwendungen dieser Wissenschaften, die Medizin und die Technik. Drängt doch nach dem Urteil Berufener gerade auf diesen Gebieten die Fülle des Stoffes zu einer Zersplitterung, die schließlich dazu führt, daß das geistige Band, das die Einzelgebiete verknüpfen soll, verloren geht und kritikloses Arbeiten nach vorgeschriebenem Gange an seine Stelle tritt. Infolge dieser Erkenntnis regt sich auch auf den Gebieten der angewandten Naturwissenschaften das Bemühen, den Blick über das lediglich Nützliche hinaus auf den tieferen Gehalt und den Werdegang, den diese Wissenschaften innerhalb des Verlaufes der Kulturentwicklung genommen haben, zu richten.
Nach der Auseinandersetzung der für das Verhältnis der Wissenschaft zu ihrer Geschichte wesentlichen Gesichtspunkte seien die wichtigsten Phasen der Wissenschaftsgeschichte noch einmal kurz hervorgehoben, um daran die weitere Schilderung anzuknüpfen.
Man hat lange Zeit die Mathematik und die Naturwissenschaften für Schöpfungen der Griechen gehalten und den Anteil, den die Völker des alten Orients an diesen Schöpfungen hatten, nur gering bewertet. Heute ist indessen sicher, daß eine große Fülle von Beobachtungen und Erfahrungen gesammelt und auch[Pg 9] schon bis zu einem gewissen Grade gesichtet wurden, bevor die Griechen unter teilweiser Verwendung dieses Materials an den systematischen Aufbau der Wissenschaften herangetreten sind. Daß unserem Zeitalter diese mühevolle Vorarbeit bekannt geworden ist, verdankt es der modernen Archäologie, der Wissenschaft vom Spaten. Erst im 19. Jahrhundert wurde nach und nach der Schutt hinweggeräumt, der die in Trümmer versunkenen Stätten der uralten Kultur im Niltal und am Euphrat deckte. Zu vielen Tausenden fand man Tonplatten, die nach ihrer Reinigung Schriftzüge erkennen ließen. Diesen Keilschrifttafeln verdanken wir die Einsicht, daß die Naturwissenschaften und die Mathematik ein Alter besitzen, das man in früherer Zeit, als jedes Verdienst der verhältnismäßig jungen Kultur der Griechen zugeschrieben wurde, nicht ahnte.
Man hat wohl behauptet, daß die Wissenschaft erst mit dem Augenblick beginne, in dem der Mensch sich der Erforschung eines Gegenstandes ohne alle Nebenrücksichten widmet. Will man sich dieser Erklärung anschließen, so darf man allerdings von einer Wissenschaft des alten Orients und Ägyptens nicht reden. Die Sternkundigen z. B. kannten damals nur zwei Aufgaben. Zu beiden stand der Mensch mit seinem Fürchten und Hoffen in engster Beziehung. Es galt einmal, die Zeitrechnung festzusetzen und zweitens, aus den Sternen Menschen- und Völkerschicksale zu deuten. Aber hat sich der Mensch nicht stets als Mittelpunkt bei seinem Tun und Denken gefühlt? Sind nicht die Chemie, die Medizin, die Botanik aus ähnlichen Trieben hervorgegangen? Selbst die Mathematik, die sich so gern als reine Wissenschaft bezeichnet, macht keine Ausnahme. Die Griechen hatten nicht so Unrecht, wenn sie annahmen, daß die Ägypter durch die Vermessung ihrer Ländereien auf die ersten geometrischen Sätze geführt worden seien. Richtiger ist es also, den Beginn der Wissenschaft auf jene Zeit zurückzuführen, in der zuerst sorgfältig beobachtet und die gewonnenen Ergebnisse als Gemeingut, sei es mündlich, sei es schriftlich, fortgepflanzt wurden. So war es zweifelsohne schon eine beachtenswerte wissenschaftliche Leistung, daß die Astronomen Babylons durch Jahrhunderte währende Beobachtungen eine gewisse Regel in der Wiederkehr der Finsternisse erkannten. Auf Grund dieser Regel waren sie sogar imstande, die Finsternisse mit einiger Wahrscheinlichkeit vorherzusagen. Und gerade diese Kunst, ein Geschehnis aus der Kenntnis des Naturablaufes vorherzusagen,[Pg 10] hat man mit Recht auch wohl als ein Charakteristikum der Wissenschaft bezeichnet.
Vor allem aber verdient genaues Beobachten dann als eine wissenschaftliche Tätigkeit bezeichnet zu werden, wenn sich dem Beobachten das Messen und Vergleichen zugesellt. Und an Messungen, die in Anbetracht der rohen Hilfsmittel, auch heute noch Bewunderung erregen, haben es die Alten nicht fehlen lassen.
Zu astronomischen Messungen benutzte man in Grade eingeteilte Kreise. Mit ihrer Hilfe wurde der Abstand der Sterne voneinander, vom Pol, vom Himmelsäquator und vom Horizont ermittelt. Auf diese Weise entstand eine Topographie des Fixsternhimmels mit genauer Ortsangabe für die einzelnen Gestirne.
Schon früher hatte man eine Anzahl einander benachbarter hellerer Sterne als Gruppen, als Sternbilder, auffassen gelernt. Daß man Sternen und Gruppen von Sternen Namen gab und ihre Bewegung verfolgte, war der zweite Schritt auf dem Wege, auf dem der Mensch in das Weltall eingedrungen ist. Der erste Schritt ist immer das bloße Beobachten gewesen. Die zunächst unbestimmten Eindrücke schärfer erfassen und sie ordnen, das heißt, sie unter Namengebung in ein gewisses System eingliedern, das weiteres Beobachten fordert und eine leichtere Verständigung herbeiführt, das war stets der zweite Schritt.
Das erste Weltbild, zu dem die Wissenschaft des Altertums gelangte, war dasjenige der unmittelbaren naiven Anschauung. Wie eine gewaltige Scheibe erschien der Wohnsitz der Menschheit. Jenseits der Säulen des Herkules und der Ufer des Schwarzen Meeres, sowie nördlich vom Lande der Hyperboreer und südlich der libyschen Wüste sollte der Ozean als eine kreisförmige Wassermasse die Erdscheibe begrenzen.
So klein wie der geographische Gesichtskreis nach heutigen Begriffen war, so eng war auch der kosmische. Welt und Erde fielen in der Hauptsache zusammen. Über der Erdscheibe ruhte der Himmel als ein wirkliches, aus festem oder flüssigem Stoff bestehendes Gewölbe. Der im Mittelpunkte ruhenden Erde, als dem Orte des Unbeständigen, stellte man die sie umkreisenden Gestirne als die Welt des Unveränderlichen gegenüber. Erst aus der Überwindung dieses Gegensatzes entsprang die Vorstellung vom All, wie sie die Neuzeit nach dem Wiederaufleben der Wissenschaften seit Koppernikus, Kepler und Galilei geschaffen hat.
Eine Erweiterung des ersten, engbegrenzten Weltbildes fand noch während des griechischen Geisteslebens statt. Diese Erweiterung kam dadurch zustande, daß sich zum Beobachten und zum Messen die geometrische Betrachtungsweise gesellte. Daraus erwuchs die reine Wissenschaft, die in der steten Verknüpfung von Beobachten, Messen und Schließen besteht. Während dieser, schon im Altertum erklommenen Stufe erweiterte sich das Himmelsgewölbe zur Himmelskugel und die Erdscheibe zu der freischwebenden, kugelförmigen Erde.
Die ersten Zweifel, ob man es bei der Erde wirklich mit einer Kugel zu tun habe, entstanden bei weiten Reisen. Begab man sich von Griechenland nach Ägypten, so tauchten im Süden Sterne auf, die man in Griechenland nicht zu sehen bekam. Um von diesen und ähnlichen Beobachtungen aus zu der Vorstellung der kugelförmigen Gestalt der Erde zu gelangen, dazu bedurfte es jedoch keines geringen Abstraktionsvermögens. Sobald man aber die Erde für eine Kugel hielt, war der erste Schritt zu jener Vorstellung vom Kosmos, die wir heute hegen, getan. Lag es doch nahe, die gewonnene Anschauung mit der Annahme zu vereinen, daß Mond und Sonne als ähnliche große Kugeln, weit entfernt von der Erde, frei im Raume schweben.
Mit dieser im griechischen Altertum entstandenen Erweiterung des Weltbildes waren zwei der großartigsten Probleme gegeben, welche die Menschheit bis in die Gegenwart hinein mit immer größerer Genauigkeit zu lösen gesucht hat. Es galt nicht nur die Größe der Erdkugel, sondern auch ihren Abstand von den benachbarten Himmelskörpern zu bestimmen.
Den Gedanken, die Größe der Erdkugel zu ermitteln, verwirklichte der alexandrinische Gelehrte Eratosthenes. Es hat Zeiten gegeben, in denen man von den Leistungen der Alten mit hochmütiger Geringschätzung sprach. Wer zu einem etwas tieferen Verständnis der Geschichte der Wissenschaften gelangt ist, wird der Erdmessung des Eratosthenes und ähnlichen Problemen, welche die Alten lösten, seine Anerkennung nicht versagen und einsehen, daß die Begründung der neueren Wissenschaft dadurch erfolgte, daß man auf die Arbeiten der Alten zurückgriff. In ganz besonderem Maße gilt das von der Astronomie und damit von der Entstehung des modernen Weltbildes.
Die Bestimmung des Erdumfanges durch Eratosthenes bildete sozusagen den Hebel für das Problem, messend über die[Pg 12] Erde hinauszugelangen und auf diese Weise in die Gliederung des Weltgebäudes einzudringen. Zuerst gelang es Aristarch, von der Größe und der Entfernung der uns nächsten Weltkörper ein annähernd richtiges Bild zu erhalten. Aristarch legte die Ergebnisse seiner Messungen und seines Nachdenkens in einer Schrift »Über die Größen und Entfernungen der Sonne und des Mondes« nieder. Aus dieser Schrift, von der einiges erhalten geblieben ist, ersieht man, daß Aristarch den Mond für etwa 30 (statt 48) mal so klein, die Sonne dagegen für 300 (statt 1,300,000) mal so groß wie die Erde hielt. Die mittlere Entfernung des Mondes von der Erde bestimmte Hipparch zu 59 (statt 60) Erdhalbmessern. Da man die Größe der Erde durch Eratosthenes kennen gelernt hatte, so ließ sich der Abstand Erde-Mond sogar in absolutem Maß ausdrücken.
Da Aristarch mit ziemlicher Sicherheit zu schließen vermochte, daß die Sonne ein viele tausendmal größerer Weltkörper ist als unser Trabant und daß sie auch die Erde ganz erheblich an Größe übertrifft, so regte sich in ihm der Zweifel, ob die Erde tatsächlich den Mittelpunkt des Ganzen bilde und die um so viel größere Sonne sich wirklich um die Erde bewege. So kam es, daß Aristarch die heliozentrische, die Sonne als Mittelpunkt des Alls betrachtende Lehre schon 1800 Jahre vor Koppernikus aussprach. Trotzdem siegte, als im 2. Jahrhundert n. Chr. die Astronomie durch Ptolemäos in ein System gebracht wurde, die geozentrische Ansicht. Das Ptolemäische System blieb während des Altertums und durch das ganze Mittelalter hindurch in Geltung. Das Wesentlichste und die Mitte der Welt war danach die im Zentrum ruhende Erde. Um sie bewegten sich der Mond, die Sonne, die Planeten und der gesamte Fixsternhimmel.
Man mußte mancherlei Annahmen machen, um die am Himmel beobachteten Vorgänge mit diesem System in Einklang zu bringen. Die größten Schwierigkeiten machten die Planeten. Bei ihnen wechselte nicht nur die Geschwindigkeit, mitunter schienen sie sogar stillzustehen, und schließlich bewegten sie sich auf ihrer Bahn zeitweise in umgekehrter Richtung. Um dies alles zu erklären, ohne den Grundsatz der gleichmäßigen und kreisförmigen Bewegung der Weltkörper zu verlassen, ließ man die Planeten in einem Epizykel laufen, d. h. in einem kleineren Kreise, dessen Mittelpunkt sich auf einer größeren Kreisbahn um die Erde bewegen sollte. Je genauer man den Lauf der Planeten beobachten lernte, um so weniger entsprachen die Beobachtungen der immer[Pg 13] verzwickter werdenden Epizyklentheorie. Doch sollten gerade die Irrwege, in die sich die Astronomen des Altertums und des Mittelalters verrannt hatten, für Koppernikus der Anlaß werden, über eine andere Möglichkeit des Weltenbaues nachzusinnen.
Wie für die Astronomie, so wurden auch für die übrigen Zweige der Naturwissenschaften während des Altertums die wichtigsten Grundlagen geschaffen. Es kann indessen hier nicht im einzelnen wiederholt werden, wie weit der Mensch im Altertum in der Erforschung des eigenen Körpers und der übrigen Lebewesen, der Mineralien und der Gesteine, sowie der physikalischen und chemischen Kräfte gelangt ist. Nur das eine sei hervorgehoben, daß damals auch auf diesen Gebieten das Fundament gelegt wurde, auf dem die Neuzeit nach dem Wiederaufleben der Wissenschaften, also etwa seit dem 16. Jahrhundert, weiterbauen konnte, um zur Beherrschung der Natur und zu jenem Weltbild zu gelangen, das wir heute als das wichtigste theoretische Ergebnis der gesamten naturwissenschaftlichen und naturphilosophischen Forschung besitzen.
Als einen der wesentlichsten Mängel des Altertums hat man es immer betrachtet, daß das Experiment zu wenig gewürdigt wurde. Es ist indessen eine Übertreibung, wenn man sagt, die Alten hätten nicht experimentiert. Das Hüttenwesen, die Metallurgie, die Glasbereitung, die Färberei und viele andere Zweige des gewerblichen Lebens regten im Altertum zu zahlreichen Versuchen an. Dafür, daß mitunter auch der Gelehrte experimentierte, ist der große Mathematiker und Physiker Archimedes ein Beispiel. Durch seine Verknüpfung der mathematischen Betrachtungsweise mit sinnreich ausgedachten Versuchen wurde er der Schöpfer der wissenschaftlichen Mechanik.
Zahlreiche Untersuchungen über das Verhalten der Gase und der Dämpfe stellten die alexandrinischen Gelehrten an. Einer von ihnen verwendete den Dampf sogar schon zum Betriebe einer maschinellen Vorrichtung. Ein anderer führte eine ganze Versuchsreihe durch, um das als Brechung bekannte Verhalten eines Lichtstrahls, der in Wasser eindringt, kennen zu lernen. Seine Ergebnisse waren so genau, daß neuere Messungen sie bis auf geringe Abweichungen bestätigt haben. Zur Zeit der Römer wurden sogar vivisektorische Untersuchungen angestellt, um das Zusammenwirken von Nerven und Muskeln zu erforschen. Allerdings war man im Altertum geneigt, den mühevollen Weg des Versuches abzukürzen, und lieber von allgemeinen Sätzen auszugehen. Ein Beispiel dafür boten die[Pg 14] Pythagoreer. Sie hatten entdeckt, daß sich harmonische Töne ergeben, wenn man eine Saite nach einfachen Verhältnissen teilt. Von diesem Ergebnis ausgehend, stellten sie den Satz auf, daß alles in der Welt in ganz bestimmter Weise nach Maß und Zahl geordnet sei. Unter den griechischen Denkern war besonders Plato von diesem Gedanken beherrscht.
An die Spekulationen über Form, Maß und Zahl reihte sich die Frage nach dem Stoff, aus dem die Welt besteht. Nach der Vorstellung der ersten Naturphilosophen ist die Welt aus einem Urstoff geformt. Dem einen schien dafür das Wasser besonders geeignet. Andere hielten die Luft für die Urmaterie. Aus ihrer Verdichtung sollten die flüssigen und die festen Körper entstanden sein. Den längsten Bestand hatte die Lehre, daß sich die Welt aus vier Elementen gebildet habe, aus Erde, Feuer, Luft und Wasser. Aus ihnen waren danach alle irdischen Dinge hervorgegangen. Die Gestirne dagegen sollten aus einer besonderen, fünften Substanz (Quintessenz) bestehen.
Mit der Lehre von einem Urstoff, der übrigens auch den vier Elementen zugrunde liegen sollte, konnte man sich indessen nicht begnügen. Man erkannte, daß man dem Stoff ein formgebendes, gestaltendes Prinzip zur Seite stellen mußte. Aristoteles nannte es Seele. Ein anderer forderte einen nach Zwecken schaffenden Weltgeist. Ein dritter legte dem Stoff zwei Kräfte bei, die er als Liebe und Haß bezeichnete. Damit waren die Keime der mechanischen Naturerklärung gegeben. Man braucht nur statt Liebe und Haß Anziehung und Abstoßung zu setzen und den Urstoff nach dem Vorgang Leukipps und Demokrits in unveränderliche Teilchen (Atome) aufzulösen, um die Vorstellungen zu erhalten, welche die neuere Naturwissenschaft ihren Bestrebungen, die Welt mechanisch zu erklären, zugrunde gelegt hat.
Wie die Begriffe Stoff und Form, so gehören auch die Vorstellungen des Wechsels, des Werdens und Fließens zu den primitivsten. Auch diese Vorstellungen bildeten die Grundlage eines naturphilosophischen Systems der Alten.
Hand in Hand mit solchen Vorstellungen entstanden schon im Altertum die ersten Ansätze zu einer Entwicklungslehre im biologischen Sinne. Wer denkt nicht an die Urzelle, wenn es heißt, durch die Sonnenwärme seien im Schlamm zuerst blasige Gebilde entstanden. Klingt es nicht ferner wie eine Stelle aus Lamarcks oder Darwins Werken, wenn daran die Bemerkung geknüpft[Pg 15] wird, aus diesen Bläschen hätten sich zuerst fischartige Geschöpfe gebildet, von denen einige ans Land gekrochen seien? Diese Änderung der Lebensweise habe zu einer Umwandlung der Gestalt geführt. Auf solche Weise seien zunächst die landbewohnenden Tiere und schließlich der Mensch entstanden.
Dennoch wäre es grundfalsch anzunehmen, die Geistesschöpfungen der Neuzeit seien nur Wiederholungen dessen, was sich schon bei den alten Schriftstellern findet. In vielen Fällen handelt es sich bei den Alten nur um gelegentliche geistreiche Einfälle. Daß sich darunter neben einer Menge von haltlosen Behauptungen auch manches Zutreffende findet, darf nicht wundernehmen. Auch von einem anderen Gesichtspunkte aus kann man es verstehen, daß manche Begriffe und Vorstellungen der Alten in dem Wissenschaftsgebäude der Neuzeit wiederkehren. Im Grunde genommen ist doch der Mensch in geistiger und körperlicher Hinsicht im geschichtlichen Altertum das gleiche Wesen wie in der Neuzeit. Die zwei Jahrtausende Zeitunterschied spielen in Anbetracht der Dauer seiner Entwicklung keine große Rolle. Und wie die ältesten Werkzeuge und Maschinen mit den neueren Hilfsmitteln der Technik bis zu einem gewissen Grade übereinstimmen, selbst wenn wir bis zu vorgeschichtlichen Zeiten zurückgehen, so verhält es sich auch mit den Elementen des Denkens und Forschens. Um Keime handelt es sich auf diesem wie auf allen übrigen Gebieten. Diese Keime haben sich im Laufe der Jahrtausende zu dem Baum entwickelt, als dessen Früchte wir heute die Segnungen unserer materiellen und geistigen Kultur genießen.
Auf das Altertum folgt der wohl ein Jahrtausend umfassende Zeitraum, den die Historiker das Mittelalter nennen. Das Mittelalter ist so häufig falsch gezeichnet worden, daß sich noch heute wenige ein zutreffendes Bild davon machen. Kunst und Wissenschaft der Alten, ja ihre ganze Kultur sollte sich unter Schutt und Ruinen verloren haben. Ein tiefer Riß, der die bisherige Entwicklung jählings unterbrach, sollte durch die Menschheitsgeschichte gegangen sein. Stimmt diese Ansicht, wie war es dann möglich, daß der Mensch der neueren Zeit überall auf den vom Altertum geschaffenen Grundlagen fortbauen konnte? Ist etwa das Wiederaufleben der Antike der rein zufälligen Entdeckung erhaltener Überreste zu danken? Wir dürfen heute sagen, daß der Faden der ruhigen Entwicklung nicht durchschnitten wurde. Große Veränderungen und Verschiebungen haben zwar innerhalb des als Mittelalter bezeichneten Jahrtausends stattgefunden. Der Zerfall[Pg 16] des römischen Weltreichs und die Ausbreitung des Christentums mit seinem weltabgewandten Wesen, das Eindringen der Germanen und der Araber in die Mittelmeerländer, die ja das eigentliche Kulturzentrum der alten Welt ausmachten: dies alles war für die weitere Ausgestaltung der Wissenschaften von großer Bedeutung. Es ist auch hier und da ein Stück verloren gegangen, ein Stillstand, selbst ein Rückschritt eingetreten. Forschen und Denken, ihre Ergebnisse sammeln, sichten und von Geschlecht zu Geschlecht, von Zeitalter zu Zeitalter vererben sind aber so grundlegende Äußerungen des menschlichen Geistes, daß sie unmöglich plötzlich aufhören konnten.
Mit der politischen Machtentfaltung der Araber trat an die Stelle der griechischen Literatur allmählich die arabische. Die alten Texte wurden ins Arabische übersetzt; das übernommene Wissen wurde vermehrt und gleichfalls in arabischer Sprache niedergelegt. Man darf es sich indessen nicht so vorstellen, als wenn ein bis dahin kaum bekanntes Volk urplötzlich die Fackel der Wissenschaft ergriffen hätte, und als ob diese erloschen sein würde, wenn nicht zufällig die Araber auf dem Plane erschienen wären. Das Arabische verband in ähnlicher Weise die Völker des Ostens, wie es das Latein in den christlichen Ländern Europas tat. Arabisch und Latein waren im Mittelalter die Sprachen der Wissenschaft und des geistigen Austausches von Volk zu Volk. In beiden Sprachen erhielten sich die Werke der Alten. Als dann um 1450 der Buchdruck entstand, empfing alles Wissen, auch das im ursprünglichen griechischen und lateinischen Text erhaltene, neues Leben. Und es ist kein bloßer Zufall, daß in den Beginn des Zeitalters, das wir als Renaissance bezeichnen, die Erfindung des Buchdrucks fällt.
Durch das Studium des astronomischen Hauptwerkes des Altertums erwachte zuerst die Astronomie zu neuem Leben. Die Astronomie trat ferner in die engste Beziehung zur Nautik, die Nautik wurde angewandte Astronomie. Auch hier handelt es sich wie überall um innere Notwendigkeit. Die griechischen und die phönizischen Seefahrer hatten sich im Dunkel der Nacht zwar auch schon nach den Sternen gerichtet, sie waren aber Küstenfahrer geblieben. Seitdem war die Kulturmenschheit mehr und mehr nach Westen gerückt. Sie hatte das enge Mittelmeer, von dessen Fläche fast überall die Berge der Küste zu sehen sind, verlassen und sich an den Küsten des Atlantischen Ozeans ausgebreitet. So sehr hier auch[Pg 17] das Unbekannte locken mochte, die kühnen Seefahrer, die binnen kurzem den Erdball eroberten, wagten es zunächst doch nicht, sich von der atlantischen Küste zu entfernen. Da war es ein günstiges Zusammentreffen, daß gerade in der zweiten Hälfte des 15. Jahrhunderts die Wiederbelebung der Astronomie erfolgte. Man erfand zu den Meßapparaten der Alten neue hinzu, besonders solche, die sich für den Gebrauch auf dem schwankenden Schiffe eigneten. Die astronomischen Tafeln wurden verbessert, die Trigonometrie, die wichtigste Hilfswissenschaft der Astronomie, aus bescheidenen Anfängen entwickelt und der neueren Astronomie und den mit ihr zusammenhängenden Wissenschaften als willkommene Gabe dargeboten.
Auch Koppernikus, mit dem eine neue Epoche in der Entwicklung der Naturwissenschaften anhebt, empfing die wertvollsten Anregungen aus den Schriften der Alten. Durch das Festhalten an der geozentrischen Lehre war die Astronomie in Schwierigkeiten geraten, weil Lehre und Beobachtungen sich immer weniger deckten, je genauer man beobachten lernte. Um die Wissenschaft aus diesen Schwierigkeiten herauszuführen, gab sich Koppernikus zunächst die Mühe, die alten Schriften daraufhin zu untersuchen, ob nicht irgend jemand einmal der Ansicht gewesen sei, daß die Bewegungen der Gestirne anders verliefen, als es Ptolemäos gelehrt hatte. Sowohl bei Cicero als auch bei einem andern alten Schriftsteller fand Koppernikus die Meinung, daß sich die Erde bewege. Von diesem ersten Keim bis zum Ausbau und zum Beweis des heliozentrischen Systems war ein weiter Weg. Denn eine gelegentliche Äußerung, von der sich später herausstellt, daß sie das Richtige getroffen hat, ist noch keine Entdeckung und noch lange keine Theorie, die ja erst in der Zusammenfassung und Deutung vieler als richtig erkannter Tatsachen besteht. Je mehr Tatsachen mit einer Theorie im Einklang stehen, um so größer ist ihre Wahrscheinlichkeit. Auf einen solchen Nachweis kam es also an und nicht auf die gelegentliche Äußerung eines richtigen Gedankens. An diesen Nachweis wandte Koppernikus die Arbeit seines Lebens.
Die Weltansicht des Koppernikus bedeutet zwar eine ganz außerordentliche Erweiterung der seit alters herrschenden Vorstellungen, sie wich aber von der heutigen doch noch erheblich ab. Für Koppernikus war das Weltall noch eine Kugel von bestimmten Abmessungen. In ihrem Mittelpunkt ruhte die Sonne.[Pg 18] Begrenzt wurde die Weltkugel von der Sphäre der Fixsterne, die ihr Licht wie die Erde und die Planeten von der Sonne erhalten sollten. Erst dem Blick des Dominikanermönches Giordano Bruno erweiterte sich das Fixsterngewölbe zu einem in Raum und Zeit unendlichen Universum. Giordano Bruno war der erste, der die Fixsterne für Sonnen und für Mittelpunkte unzähliger, dem unseren ähnlicher Planetensysteme hielt. Da er sich mit den herrschenden Dogmen in Widerspruch setzte, überlieferte ihn die Inquisition dem Scheiterhaufen.
Fast zur selben Zeit, als man sich bemühte, durch dieses Ketzergericht die Wahrheit zu töten, erwuchs der Forschung ein gewaltiger Bundesgenosse. Von Holland kam nämlich die Kunde, daß dort ein Instrument erfunden sei, mit dem man weit entfernte Gegenstände ganz nahe an das Auge heranbringen könne. Als man durch dieses Instrument zum Himmel blickte, ging eine neue, wunderbare Welt dem Menschen auf. Zu den ersten, die sich des Fernrohrs zu astronomischen Forschungen bedienten, gehörte Galilei, einer der gewaltigsten Forscher und Denker, ein König im Reiche der Wissenschaften. Er entdeckte die Berge des Mondes, die Jupitertrabanten, die Sonnenflecken und die Lichtgestalten der Venus. Eine Entdeckung reihte sich an die andere, und jede war in vollstem Einklang mit der koppernikanischen Lehre.
Alle Gründe, die für diese Lehre sprachen, und alle Widersprüche des Ptolemäischen Systems faßte Galilei schließlich in einem glänzend geschriebenen Buche zusammen, das eine einzigartige Stellung in der Weltliteratur einnimmt.
Der Mann, der das Werk eines Koppernikus und eines Galilei fortsetzte, war Johann Kepler. Durch ihn wurde die heliozentrische Lehre auf den Rang einer wohlbegründeten Theorie erhoben. Was Kepler als das Ergebnis fünfundzwanzigjähriger Arbeit gefunden, läßt sich in wenigen Worten ausdrücken. Der größte Mangel, welcher der koppernikanischen Lehre vor Kepler anhaftete, war die Annahme der Kreisbewegung der Gestirne. Mit einer solchen Annahme wollten die genaueren Beobachtungen nicht übereinstimmen. An dieser Stelle lag, wie so oft in der Entwicklung der Wissenschaften, der Wendepunkt. Wenn sich die Beobachtungen der Theorie nicht anpassen, so muß sie einer neuen Theorie weichen, denn den Ergebnissen der Beobachtung kann man keinen Zwang antun. Sie sind das Ursprüngliche, und ihnen müssen sich die Vorstellungen anbequemen. So dachte[Pg 19] und danach handelte Kepler. Er gab das Axiom der Kreisbewegung auf und nahm an, daß sich die Planeten in einer ovalen Bahn um die Sonne bewegen. Die Beobachtungen und die Theorie entsprachen einander jetzt schon besser. Doch war die Übereinstimmung noch immer nicht vollkommen. Wirkliche Übereinstimmung ergab sich erst, als Kepler annahm, daß sich die Planeten in Ellipsen um die Sonne bewegen.
Etwas später als das Wiederaufleben der Astronomie erfolgte eine Neubegründung der übrigen Naturwissenschaften. Schon seit dem 13. Jahrhundert regte sich der Drang nach selbständiger Forschung und nach Befreiung von kirchlichen und wissenschaftlichen Dogmen. In diesem Ringen nimmt das Zeitalter Galileis eine ganz hervorragende Stelle ein. Zum ersten Male wird man sich der großen Bedeutung der experimentellen Forschungsweise voll bewußt. Um sie auszuüben, werden Mittel geschaffen, die man bisher weder kannte noch ahnte. Was nützten alle Bemühungen, in die Natur der Wärmeerscheinungen einzudringen, solange man kein Thermometer besaß? Das 17. Jahrhundert erfand es. Die Philosophen hatten zahllose Spekulationen angestellt über den leeren Raum, über das Wesen der Luft, über die Frage, ob sie Gewicht besitzt oder mit einem Streben vom Erdmittelpunkte fort begabt sei. Im 17. Jahrhundert trat Guericke auf. Er hielt nichts vom Disputieren auf dem Gebiete der Naturwissenschaften, sondern er konstruierte die Luftpumpe und wies das Vorhandensein des Luftdrucks durch den berühmten Versuch mit den Magdeburger Halbkugeln nach. Mit seinem Wasserbarometer untersuchte Guericke die Schwankungen des Luftdrucks. An die Stelle des Wasserbarometers trat das bequemere Quecksilberbarometer. Zur Luftpumpe gesellte Guericke die Elektrisiermaschine. Das Mikroskop erschloß dem Biologen eine neue Welt. Mit einem Worte: sowie das Bestreben, die Natur auf dem Wege des Versuchs zu durchforschen, ernstlich zum Durchbruch kam, schuf der erfinderische Geist eine reiche Fülle von Hilfsmitteln.
Gewiß haben auch die Instrumente nicht dazu verholfen, den letzten Schleier von der Natur der Dinge zu ziehen. Doch es zeugt nur von einer schlechten Kenntnis der Aufgaben der Naturwissenschaft, das von ihr zu verlangen. Alle Forschung ist an die körperlichen und geistigen Grenzen des menschlichen Erkennens gebunden, und die echte Forschung bleibt sich dieser Grenzen stets bewußt.
Man kann alles, was uns jetzt noch in der Ausgestaltung des Weltbildes begegnet, unter einen leitenden Gedanken bringen. Dieser Gedanke, den der einzelne Forscher sich kaum vergegenwärtigte, der sich aber immer deutlicher aus der Forschungs- und Denkarbeit der folgenden Jahrhunderte herausschälte, betrifft das Verhältnis der irdischen Erscheinungen zu den Vorgängen im Kosmos. Ein Hinausprojizieren der Erkenntnisse, die das Experiment an den Dingen der unmittelbaren Umwelt gewonnen hat, begegnet uns schon an der Schwelle des 17. Jahrhunderts. Damals setzte die Erforschung des Magnetismus ein. Man begnügte sich aber nicht damit, die Erscheinungen experimentell zu untersuchen, sondern man erweiterte die erhaltenen Ergebnisse zu der Vorstellung, die Erde sei ein großer Magnet und der Magnetismus eine kosmische Kraft. Ja, man betrachtete diesen kosmischen Magnetismus sogar als die Ursache der Planetenbewegung. Das Gleiche wiederholte sich, als die elektrischen Erscheinungen erforscht wurden.
Daß Licht und Wärme kosmische Kräfte sind, war ohne weiteres klar, da sie ja von der Sonne her den Raum durchfluten. Ein Rätsel blieb es aber, ob auch die Gesetze der Mechanik für den Kosmos gelten. Galilei hatte den Fall, die Pendel- und Wurfbewegung untersucht und ihre Gesetze gefunden. Kepler hatte sich die Frage vorgelegt, ob die Schwerkraft, welche jene Bewegungen regelt, nicht etwa eine kosmische Kraft sei, die sich von der Erde bis zum Monde und von der Sonne auf sämtliche Glieder des Planetensystems erstrecke. Die Beantwortung der Frage, ob die Bewegung der Himmelskörper auf eine Kraft zurückzuführen sei, die auch an die Erde gebunden und daher einer unmittelbaren Erforschung zugänglich ist, sollte jedoch erst durch Newton geschehen. Durch eine Erweiterung der von Galilei gefundenen Gesetze über die Wurfbewegung gelangte er zur Aufstellung des Gravitationsgesetzes.
Es gibt kaum etwas, das man an wissenschaftlicher Bedeutung diesem Gesetz zur Seite stellen kann. Man hätte es eigentlich aus dem Verhalten des Lichtes erschließen können. Daß die Lichtstärke sich nach dem gleichen Gesetz abschwächt, wenn wir uns von der Lichtquelle entfernen, wußte man nämlich schon vor Newton. Es lag nahe, daß auch andere Kräfte wie der Magnetismus und die Elektrizität dem Newtonschen Gesetze gehorchen. Diese Vermutung erwies sich als richtig. Weite Gebiete der Er[Pg 21]kenntnis wurden so durch ein Gesetz verbunden, und der Name Weltgesetz gewann seine volle Berechtigung.
Mit dem Ausspruch des Gesetzes und dem Nachweis seiner Richtigkeit für einen bestimmten Fall war es jedoch noch nicht getan. Newton erwuchs die Aufgabe, die Übereinstimmung möglichst aller astronomischen Erscheinungen mit seinem Gesetze nachzuweisen. Der Fall lag für ihn ähnlich wie für Koppernikus. In dieser Anpassung der Vorstellungen an die Tatsachen liegt die Hauptaufgabe aller Forschung großen Stils. So sehen wir auch Newton jahrelang beschäftigt, das Weltsystem einer ähnlichen großen Revision zu unterziehen, wie es vor ihm Koppernikus getan hatte. Zunächst mußte bewiesen werden, daß die Gesetze Keplers im Einklang mit dem Gravitationsgesetze stehen. Newton zeigte, daß Keplers Gesetze sich daraus ableiten lassen. Dann wies er im einzelnen nach, daß die Monde gegen die Planeten und letztere gegen die Sonne gravitieren, d.h., daß ihre Bewegungen nach dem allgemeinen Gesetz der Schwere geregelt sind. Eine Erscheinung, die bis dahin keine Erklärung gefunden hatte, war die unter dem Namen der planetarischen Störung bekannte Unregelmäßigkeit in der Bewegung der Planeten. Alle Weltkörper ziehen sich gegenseitig an. Also müssen sich auch die Planeten, wenn sie einander nahe kommen, wechselseitig merklich in ihrer Bewegung beeinflussen. Diesen Vorgang bezeichnet man als planetarische Störung. Newtons Gravitationsgesetz bot zuerst eine Handhabe, sie zu erklären und zu berechnen. Die Theorie der Planetenbewegung wurde später6 in solchem Maße ausgebildet, daß man aus der Größe der Störung, die der eine Planet erleidet, den störenden Weltkörper ermitteln lernte.
Newton durchdrang aber nicht nur das System als Ganzes, er erkannte auch die bisherige Vorstellung von der Gestalt der Erde als irrig. Die Erde galt seit dem Altertum als Kugel. Auch den Neubegründern der Astronomie fiel es nicht ein, daran zu zweifeln. »Die Welt ist kugelförmig, die Erde ist kugelförmig, und die Bewegung der Himmelskörper erfolgt gleichmäßig, ununterbrochen und im Kreise,« lauten die Worte des Koppernikus. Diese Lehren wurden von Kepler berichtigt. Er war es, der das Axiom von der kreisförmigen Bewegung der Himmelskörper zerstörte. Das Axiom von der Kugelgestalt der Erde wurde erst durch Newton widerlegt.
Die Entdeckung der Erdabplattung änderte das Weltbild indes nicht wesentlich. Auch die Entdeckung neuer Planeten oder der Monde schon bekannter Planeten bedeutete jedesmal nur einen neuen Strich im Bilde, das nach und nach durch immer mehr Einzelheiten vervollständigt wurde, ohne je wieder eine solche Umgestaltung zu erleben, wie sie Koppernikus herbeigeführt hatte.
Verändern mußten sich auch die Proportionen, die für die einzelnen Glieder des Weltalls galten. Die größte derartige Veränderung wurde dadurch herbeigeführt, daß es im 18. Jahrhundert gelang, den Abstand der Erde von der Sonne mit ziemlicher Genauigkeit zu ermitteln. Daß dieser Abstand sehr groß sei, stand fest. Schon das Altertum hatte ihn auf das Vielfache der Entfernung des Mondes von der Erde geschätzt. Nach Koppernikus betrug die Entfernung der Sonne mehr als tausend Erdhalbmesser. Im 18. Jahrhundert stellte sich heraus, daß man noch sehr weit hinter der Wirklichkeit zurückgeblieben war. Der neue, nach besserer Methode und durch genauere Messungen ermittelte Wert übertraf den von Koppernikus angenommenen um das Zwanzigfache. Auf 20 Millionen Meilen bezifferte sich das aus der Beobachtung der Vorübergänge der Venus ermittelte Grundmaß der Astronomie. Mit Hilfe dieses Grundmaßes war man imstande, die bisher nur in ihrem Verhältnis bekannten Abstände der Planeten vom Zentralgestirn nach ihrem wahren Werte zu berechnen.
Zu einer genaueren Bestimmung der Dimensionen und der Form der Erde gesellte sich im 18. Jahrhundert die Wägung unseres Planeten.
Die Ermittlung der Abplattung und des Gewichtes der Erde sind treffliche Beispiele dafür, wie neue Wahrheiten entdeckt werden. Den Ausgangspunkt bilden meist zufällige, oft ganz unbedeutende, in ihrer Ursache nicht sofort erkennbare Beobachtungen. In dem einen Falle war es die Unregelmäßigkeit im Gange einer Uhr, in dem andern die ganz geringfügige Ablenkung des Lotes, die man bei Vermessungen in der Nähe großer Berge bemerkte. An diese Beobachtungen knüpfte das Denken an. Man fragte sich, ob und unter welchen besonderen Annahmen die Beobachtung aus der bestehenden Theorie, in den vorliegenden Fällen aus Newtons Gravitationstheorie, erklärt werden könne. An diese Überlegung schlossen sich neue, nicht mehr zufällige, sondern absichtlich angestellte Beobachtungen, die in möglichst scharfen Messungen[Pg 23] bestanden und ein bestimmtes Ziel im Auge hatten. Da in den erwähnten Fällen das Ergebnis der Messungen und die Theorie im Einklang standen, so bestätigten sie sich gegenseitig.
Eine Erweiterung, wie sie seitdem kaum wieder stattgefunden hat, erfuhr das von Koppernikus, Kepler und Newton geschaffene Weltbild durch Herschel. Daß Herschel, der seit dem Altertum geheiligten Siebenzahl der Wandelsterne (Sonne, Mond, Merkur, Venus, Mars, Jupiter, Saturn) einen neuen, außerhalb des Saturn umlaufenden Planeten, den Uranus hinzufügte, daß er neue Monde entdeckte, die Rotationsbewegung am Saturn nachwies, war eigentlich schon Verdienst genug. Seine eigentliche Bedeutung liegt aber darin, daß er die Astronomie der Fixsterne begründete oder, wie Humboldt sich einst ausdrückte, daß er das Senkblei in die Tiefen des Himmels warf.
Herschel erkannte, daß die Milchstraße ein linsenförmiger, aus Millionen Sonnen zusammengefügter Sternhaufen ist, und daß die Sonne mit ihren Planeten sich etwa in der Mitte dieser Welt von Welten befindet. Lichtwölkchen, die das stärkste Fernrohr nicht in Sterne auflöst, führten Herschel zu weiteren Folgerungen. Er entdeckte solche Wölkchen zu Tausenden und sah in ihnen die Urmaterie, aus der sich neue Sternsysteme bilden. In den mannigfachen Erscheinungen, die uns der Himmel gegenwärtig darbietet, vermochte Herschel sämtliche Stufen des Weltbildungsprozesses nachzuweisen.
Die Vorstellung von dem Werden der Welt aus einem feinverteilten Urstoff hat auch Kant zu Spekulationen angeregt. Sie gipfelten darin, daß unsere irdische Materie und der Stoff der Sonne, der Planeten, ja der fernsten Weltkörper der gleiche ist, weil sie aus einer einzigen Urmaterie hervorgegangen seien.
Das Problem der Materie hat seit den ältesten Zeiten die Philosophen und die Naturforscher beschäftigt. Auch für das praktische Leben waren die stofflichen Eigenschaften und Umwandlungen von der größten Wichtigkeit. Aus den Erfahrungen der gewerblichen Praxis und den Bemühungen der Goldkocher, die den Stein der Weisen suchten, erwuchs schließlich seit der Mitte des 17. Jahrhunderts die wissenschaftliche Chemie. Man gelangte zu der Erkenntnis, daß sich die Unzahl von Stoffen, die uns im Reiche des Organischen und des Unorganischen begegnen, auf wenige Grundstoffe oder Elemente zurückführen lassen. Als solche erkannte man die Metalle, Schwefel,[Pg 24] Phosphor und verschiedene Gase. Die Trennung dieser Elemente und ihre Vereinigung: das war es, worauf der schier unbegrenzte Wechsel aller stofflichen Veränderungen sich zurückführen ließ. Waren diese Vorgänge kosmische oder waren sie auf die irdische Sphäre beschränkt, und war etwa die Welt im weiteren Sinne, das Über- oder Außerirdische, wie die Alten glaubten, aus einem besonderen Stoffe gebildet?
Zunächst erschien die Frage nach dem Wesen des außerirdischen Stoffes als eine ganz müßige. Man glaubte, daß man von der eigentlichen Beschaffenheit der Weltkörper nie etwas anderes wissen könne, als daß es sich um gravitierende Materie handele. Das wurde anders, als man sich gegen das Ende des 18. Jahrhunderts der Erforschung der Meteorite zuwandte. Daß diese kosmischen Ursprungs sind, wurde als sicher nachgewiesen. Chemie und Astronomie traten von nun an in engste Fühlung. Die Chemie war zu Anfang des 19. Jahrhunderts weit genug entwickelt, um eine Analyse des Meteoreisens und der Meteorite vorzunehmen. Sie ergab, daß neben dem Eisen auch Nickel, Kobalt und Kupfer an ihrer Zusammensetzung teilnehmen. Die steinigen Meteorite ließen außerdem noch Phosphor, Kohlenstoff, Zinn, Magnesium und viele andere den Chemikern bekannte Elemente als Bestandteile erkennen. Fast noch wichtiger als dies positive war das negative Ergebnis dieser Untersuchung. In den Meteoriten fand man kein Element, das nicht als einer der Baustoffe der Erde längst bekannt gewesen wäre. Die kosmische Materie – das war das Allgemeinergebnis dieser Untersuchung – unterscheidet sich also in keiner Weise von der irdischen. Die Stoffe, aus denen sich Welten, ja wahrscheinlich die Welt als Ganzes, zusammensetzen, stimmen mit der irdischen Materie überein.
Freilich, es waren sozusagen nur Brocken des Weltenstoffs, die in den Meteoriten der Untersuchung zugrunde lagen. Vielleicht waren es Trümmer früherer Weltkörper. An die Möglichkeit, die letzteren selbst auf ihre chemische Zusammensetzung zu prüfen, dachte zunächst noch niemand. Erst um die Mitte des 19. Jahrhunderts wurde durch die Fortschritte der Physik auch dies Problem gelöst7.
Wir sahen wie die Astronomie, die wir wohl als die älteste von allen Naturwissenschaften ansprechen können, zunächst die[Pg 25] Mathematik, dann die Physik und endlich die Chemie in ihre Dienste nahm, und wie jede Erweiterung der chemisch-physikalischen Forschung auch der Astronomie neue Methoden, neue Entdeckungen und Vorstellungen zuführte. Nur das Reich des Organischen machte bis in die neuere Zeit hinein eine Ausnahme. Es erschien als eine Welt für sich, als etwas, das vielleicht nur unseren Planeten schmückt, und sich daher nicht in die Kette des kosmischen Geschehens eingliedern läßt. Es mußte erst eine neue gewaltige Umgestaltung und Erweiterung der gesamten naturwissenschaftlichen Anschauungen eintreten, um alles Geschehen, das kosmische und das irdische, das anorganische und das organische, als etwas Einheitliches und Zusammenhängendes aufzufassen. Diese Umwälzung des naturwissenschaftlichen Denkens, die uns im vorliegenden Bande besonders beschäftigen wird, erfolgte um die Mitte des 19. Jahrhunderts. Sie bestand in der Aufstellung des Energieprinzips und in der scharfen Erfassung des Entwicklungsgedankens. Wir stehen noch heute inmitten des Ringens, das an der Hand dieser beiden Prinzipien zu immer größerer Klarheit führen wird.
Einer einheitlichen Auffassung der Naturerscheinungen stand zunächst die herrschende Vorstellung von den Imponderabilien im Wege, die als Licht- und Wärmestoff als elektrisches und magnetisches Fluidum, als Phlogiston und Lebensgeister einen ganz ungenügenden Ersatz für den heutigen Kraftbegriff bildeten. In manchen Fällen glaubte man sogar, ohne die Annahme übernatürlicher Einflüsse nicht auskommen zu können. Selbst Newton war noch der Ansicht, daß nur durch derartige Einflüsse die Stabilität des Planetensystems aufrecht erhalten werde. Und erst Laplace hat dargetan, daß eine Stabilität trotz aller Änderungen, welche die Bahnelemente der Planeten erleiden, gesichert erscheint.
Erst gegen das Ende des 18. und während der ersten Hälfte des 19. Jahrhunderts wurden die erwähnten mystischen Vorstellungen überwunden. Ermöglicht wurde dies dadurch, daß jene von der Philosophie schon früh gehegte Auffassung vom Wesen der Materie, die wir die atomistische nennen, durch Dalton auf den Rang einer naturwissenschaftlichen Theorie erhoben wurde. Jetzt erst konnte die mechanische Erklärungsweise auf die chemischen Vorgänge ausgedehnt werden. Unter dem Einfluß der atomistischen Auffassung waren auch die ersten Ansätze der mechanischen Wärmetheorie zustande gekommen. Ferner hatten Young und[Pg 26] Fresnel die Lichterscheinungen unter der Annahme eines gleichfalls aus getrennten Teilchen bestehenden Weltäthers erklärt.
Es ist zunächst zu zeigen, wie durch die Entdeckung neuer Tatsachen und Beziehungen auf allen Gebieten, sowie durch das Hinwegräumen veralteter Vorstellungsgebilde eine auf dem Energieprinzip beruhende Naturauffassung vorbereitet und geschaffen wurde. Wie sich auf diesem Fundament das Weltbild bis auf den heutigen Tag gestaltet hat, und welche Wirkungen von den Naturwissenschaften ausgingen, das zu schildern wird die Aufgabe der letzten Abschnitte dieses Werkes sein.
Wir haben in dem vorigen einleitenden Abschnitt in großen Zügen die Entstehung des Weltbildes von den ältesten Beobachtungen bis zur Begründung der Fixsternastronomie durch Herschel verfolgt.
Trotz der Vollendung, welche die Gravitationsmechanik durch Laplace erfahren hatte, bereitete der von Herschel aufgefundene Uranus den Astronomen große Schwierigkeiten. Nachdem für diesen Planeten Beobachtungen vorlagen, die sich über 40 Jahre erstreckten, war man zur Herstellung von Tafeln8 geschritten. Bald nach der Entdeckung des Uranus hatte sich ergeben, daß einzelne Stellungen dieses Planeten schon von älteren Astronomen9 im Verlauf des 18. Jahrhunderts vermerkt worden waren; nur hatte man diese Beobachtungen auf einen Fixstern 6. Größe, nicht aber auf einen unserem Sonnensystem angehörenden Weltkörper bezogen. Jene älteren Beobachtungen ließen sich jedoch nicht mit den neueren zu brauchbaren Tafeln vereinigen. Man verwarf daher die ersteren als ungenau, obgleich man damit den betreffenden Beobachtern gewaltige Fehler zur Last legte.
Als nach der Herausgabe der Uranustafeln ein Vierteljahrhundert verflossen war, stellte sich indes dasselbe Verhältnis zwischen den neuesten und jenen Beobachtungen heraus, die zur Aufstellung der Tafeln gedient hatten. Ein solcher Mangel an Übereinstimmung ließ sich nicht abermals einer Ungenauigkeit zuschreiben. Es erhob sich daher die Frage, ob die Theorie der Planetenbewegung etwa nicht genügend ausgebildet sei und das Gravitationsgesetz z. B. für größere Entfernungen keine strenge Gültigkeit besitze; oder ob der Uranus noch anderen Einflüssen gehorche[Pg 28] neben denjenigen, welche die Sonne, Jupiter und Saturn auf ihn ausüben. Sollte es nicht unter der letzten Annahme, so fragte man sich, möglich sein, durch ein aufmerksames Studium der Abweichungen, welche der Uranus darbietet, die bislang unbekannte Ursache dieser Abweichungen zu ermitteln und den Punkt am Himmel anzugeben, wo der fremde Körper, jene vermutliche Quelle aller Schwierigkeiten, seinen Sitz hat? Diese Frage war es, mit der sich um das Jahr 1845 auf Aragos Veranlassung ein junger, bis dahin kaum bekannter Franzose namens Leverrier beschäftigte10. Das Problem war offenbar eine Umkehrung der von Laplace zuerst bewältigten Störungsrechnung. Hatte man früher aus der Kenntnis der Elemente des störenden Körpers die Abweichungen des Planeten von der elliptischen Bahn berechnet, so galt es jetzt, aus der genauen Kenntnis dieser Abweichungen die Stellung und die Masse des störenden Weltkörpers zu ermitteln. Hierbei ließ sich Leverrier zunächst durch einige Analogieschlüsse leiten. Er nahm an, das zu entdeckende Gestirn sei von der Sonne doppelt so weit wie der Uranus entfernt und befinde sich in der Ebene der Ekliptik. Am 31. August des Jahres 1845 konnte er der Pariser Akademie die Bahnelemente, die Masse, den Ort und die scheinbare Größe des vermuteten Planeten mitteilen. Da sich die Berliner Sternwarte damals im Besitz einer sehr genauen Karte der von Leverrier angegebenen Gegend des Himmels befand, so wurde diese Warte von dem Ergebnis der Rechnung in Kenntnis gesetzt. An demselben Abend, als die Mitteilung aus Paris in die Hände Galles11 gelangte, welcher derzeit in Berlin den Posten eines astronomischen Hilfsarbeiters inne hatte, gelang diesem die Entdeckung des gesuchten, später Neptun genannten äußersten Planeten. Er fand ihn an einer Stelle, die nur einen Grad von dem durch Leverrier berechneten Ort entfernt, war. Diese Entdeckung bedeutet einen der größten Triumphe der Wissenschaft. »Das geistige Auge sah einen Weltkörper und wies ihm seine Bahn und seine Masse an, ehe noch ein Fernrohr auf ihn gerichtet wurde«12.
Dem geschilderten glänzenden Erfolg der theoretischen Astronomie konnten sich die insbesondere durch Bessel bewirkten Fortschritte der Beobachtungskunst würdig an die Seite stellen13.
Ermöglicht wurden die Fortschritte der beobachtenden Astronomie vor allem durch die Vervollkommnung, welche die dioptrischen Instrumente in der Hand eines Fraunhofers und anderer hervorragender Optiker erfahren hatten. Ein Instrument, das die geringsten Sterndistanzen zu messen gestattete, war Fraunhofers Heliometer. Es gab Resultate, die auf Bruchteile von Bogensekunden genau waren. Fraunhofer hatte dies durch Bisektion des Objektives seines Instruments erreicht. Zur Ermittlung der Distanzen diente die Verschiebung, die notwendig war, um die durch beide Objektivhälften gesehenen Bilder zu vereinigen. Ein derartiges, erst nach dem Tode Fraunhofers vollendetes Heliometer hatte14 auf Veranlassung Bessels die Königsberger Sternwarte erworben.
Die vorzüglichen Ergebnisse, die Bessel mit diesem Instrument erhielt, bewogen ihn, sich im Jahre 1837 dem schon so oft vergeblich in Angriff genommenen Problem einer Bestimmung der Parallaxen von Fixsternen15 wieder zuzuwenden. Zum Gegenstande seiner Untersuchung wählte Bessel die jährliche Parallaxe des 61. Sterns des Schwans, weil er dieses Gestirn, obgleich es für das bloße Auge kaum sichtbar ist, für den nächsten oder einen der nächsten von allen Fixsternen hielt. Seit der Mitte des 18. Jahrhunderts wußte man durch Bradley, daß die Fixsterne eigentümliche, stetig fortschreitende Bewegungen an der Himmelskugel zeigen, die eine Änderung ihrer Stellungen gegen benachbarte Sterne zur Folge haben und endlich die Gruppen, in welchen die Fixsterne erscheinen, gänzlich umgestalten müssen.
Der 61. Stern des Schwans besaß nun die größte von allen Eigenbewegungen, die Bessel bekannt waren. Er fand sie gleich 5 Sekunden für das Jahr. In Ermangelung eines anderen[Pg 30] Anzeichens für die größere oder geringere Nähe eines Fixsternes nahm Bessel an, daß einer starken Eigenbewegung eine geringe Entfernung und damit eine bedeutende Parallaxe entsprechen müsse. Der 61. Stern des Schwans bot auch den Vorzug, daß er von vielen kleinen Sternen umgeben ist, unter denen sich Vergleichungspunkte nach Belieben auswählen ließen. Ferner besteht der 61. Stern des Schwans aus zwei Weltkörpern; er ist also ein Doppelgestirn. Bessels Beobachtungen waren Messungen der Abstände des in der Mitte des Doppelgestirns liegenden Punktes von zwei Sternen der 10. Größe, die sich in seiner Nähe befinden. Abbildung 1 zeigt die Lage des Doppelsterns zu diesen beiden kleinen Sternen (a und b).
Die durch den Erdumlauf bedingte scheinbare Bewegung des beobachteten Gestirns besteht darin, daß es eine Ellipse beschreibt, deren Gestalt durch die Lage des Sterns gegen die Ebene der Erdbahn bestimmt und deren größter Durchmesser das Doppelte der gesuchten jährlichen Parallaxe ist. Auch der Vergleichsstern (a oder b) beschreibt eine Ellipse von derselben Gestalt. Diese Ellipse ist aber in dem Verhältnis kleiner, in dem die jährliche Parallaxe des Vergleichssterns kleiner ist als diejenige des 61. Sterns des Schwans. Beide Sterne durchlaufen ihre Ellipsen auf gleiche Art, d. h. sie befinden sich immer an ähnlich liegenden Punkten derselben.
Eine scheinbare Verschiebung der Gestirne ruft bekanntlich auch die Aberration hervor. Sie würde offenbar keinen Einfluß auf das Ergebnis der Untersuchung haben, wenn sie beiden Sternen genau gleiche Bewegungen an der Himmelskugel gäbe. Allein die Bewegung, welche die Aberration einem Stern verleiht, hängt von dem Orte ab, den der Stern an der Himmelskugel einnimmt. Da nun die Örter des Sternes 61 und der Vergleichssterne zwar einander sehr nahe (Stern 61 war von a nur 7 Minuten 22 Sek., von b nur 11 Minuten 46 Sek. entfernt) sind, jedoch nicht völlig zusammenfallen, so ist ein kleiner Unterschied der Aberrationen vorhanden.[Pg 31] Der geringe Einfluß, den dieser Unterschied ausübt, wurde durch Bessel ermittelt und eliminiert.
Ferner kam der Einfluß in Betracht, den die Eigenbewegung des Sternes 61 auf den Abstand von dem Vergleichsstern ausübt. Dieser Einfluß besteht in einer fast gleichförmigen Veränderung des Abstandes, deren Größe man berechnen kann, wenn man die Größe der Eigenbewegung des Sternes kennt. Auf diese Weise konnte Bessel alle im Laufe der Zeit gemachten Messungen auf diejenigen Werte zurückführen, die er gemessen haben würde, wenn der Stern 61 unverändert an dem Orte geblieben wäre, an dem er sich zu einer bestimmten Zeit, z. B. am Anfange des Jahres 1838 befand.
Indem Bessel nach diesen Gesichtspunkten verfuhr, gewann er durch fortgesetzte Messungen der Entfernung des Sternes 61 von einem jeden der Vergleichssterne ein Urteil über den Unterschied der jährlichen Parallaxen. Einer der Vergleichssterne hätte zwar genügt, allein Bessel wählte deren zwei, um mehrere von einander unabhängige Resultate zu erhalten, die sich gegenseitig entweder bestätigen oder verdächtig machen konnten. Er begann seine Beobachtungen am 16. August 1837 und setzte sie bis zum 2. Oktober 1838 fort. In dieser Zeit gelangen ihm 85 Vergleichungen des Sterns 61 mit dem Sterne a und 98 mit dem Sterne b. Jede Vergleichung war das Mittel mehrerer (gewöhnlich 16) in einer Nacht gemachten Messungen. Als Bessel alle Beobachtungen durch Rechnung von den Einflüssen befreit hatte, welche die Aberration und die eigene Bewegung des Sterns 61 auf seine Entfernungen von a und b äußerten, zeigten sich sehr deutliche Veränderungen, die demselben Gesetze folgten, nach dem eine jährliche Parallaxe des Sternes 61 seine Entfernungen sowohl von dem Sterne a als von dem Sterne b im Laufe des Jahres verändern mußte.
Obgleich der Schluß von der geringen Helligkeit der Sternchen a und b auf eine sehr große Entfernung oder auf eine so kleine jährliche Parallaxe, daß diese gänzlich unmerklich ist, unsicher war, so hielt es Bessel doch für angebracht, diesen Schluß zu ziehen, und aus der Zusammenfassung der Vergleiche des Sternes 61 mit den Sternen a und b ein mittleres, auf der Voraussetzung der Unmerklichkeit der jährlichen Parallaxen der letzteren Sterne beruhendes Resultat für die jährliche Parallaxe des 61. Sternes zu ermitteln. Der erhaltene Wert belief sich auf 31 Hundertstel einer Sekunde. Der Abstand des 61. Sternes von der Erde berechne[Pg 32] sich daraus auf 657,700 Halbmesser der Erdbahn16. Das Licht gebraucht etwas über 10 Jahre, um eine solch große Entfernung zu durchlaufen. Um sie anschaulicher zu machen, führt Bessel aus, daß eine Lokomotive, die täglich 200 Meilen zurücklegt, 68000 Millionen Tagereisen oder fast 200 Millionen Jahre zur Durchmessung des Abstandes jenes Sternes gebrauchen würde.
Bessels Untersuchung der Fixsternparallaxe wurde etwas ausführlicher geschildert, weil sie zeigt, mit einer wie weitgehenden Genauigkeit und mit welch' unermüdlicher Ausdauer astronomische Messungen angestellt werden müssen, wenn es sich um die Lösung derjenigen Probleme handelt, welche die Jahrtausende währende Arbeit der älteren Astronomen dem neuesten Zeitalter übrig gelassen hat.
Zu denjenigen Arbeiten Bessels, die mehr die Erdphysik als die Astronomie betrafen, gehört die genaue Bestimmung des Sekundenpendels für die Königsberger Sternwarte17.
Der Grundgedanke des hierbei von Bessel eingeschlagenen Verfahrens besteht darin, daß er nicht die Schwingungszeit und die Länge eines bestimmten Pendels, sondern die Schwingungszeiten zweier Pendel beobachtete, deren Längenunterschied genau bekannt war. Die auf diesem Wege gewonnenen Daten reichten hin, um die Länge des Sekundenpendels mit größter Schärfe zu bestimmen.
Ein weiterer Fortschritt den früheren Messungen gegenüber bestand darin, daß Bessel den Einfluß des Luftwiderstandes auf die Pendelbewegung in Rechnung zog und die nicht geringen Schwierigkeiten, welche die Berücksichtigung dieses Einflusses machte, zu bewältigen verstand. Um die Schwingungszeit mit möglichster Schärfe zu bestimmen wurden einer einzigen Versuchsreihe mehr als 4000 Schwingungen zugrunde gelegt. Ein bei der Zeitmessung etwa begangener Fehler mußte offenbar um so kleiner sein, je größer die Zahl der Schwingungen war.
Ferner bediente sich Bessel der von Borda eingeführten Methode der Koinzidenzen. Um nämlich die größte Schärfe in der[Pg 33] Bestimmung der Schwingungszeit zu erzielen, verglich Bessel die Schwingungen des zu beobachtenden Pendels mit den Schwingungen des Pendels einer Uhr, deren Gang mit astronomischer Genauigkeit kontrolliert wurde. Beide Pendel wurden durch das Fernrohr beobachtet. Zum Ausgangspunkt der Beobachtungen wurde der Moment gewählt, in dem beide Pendel zugleich durch das Gesichtsfeld gehen. Solche Koinzidenzen müssen sich bei dem verschiedenen Gang der Pendel wiederholen und auf ihre Zahl läßt sich eine weit genauere Bestimmung der Schwingungszeit gründen als auf die unmittelbare Beobachtung.
Es würde zu weit führen, wenn wir hier auf weitere Einzelheiten der scharfsinnigen Methode, auf der vor allem die Bedeutung dieser Bessel'schen Abhandlung beruht, näher eingehen wollten. Bessel erwog sogar, daß das Pendel ein Leiter ist, der im erdmagnetischen Felde schwingt, und daß die hierbei eintretende Induktion vielleicht nicht außer acht gelassen werden darf. Er überließ es aber späteren Untersuchungen, den Einfluß dieses Umstandes rechnerisch oder experimentell zu prüfen.
Als das Mittel aller Bestimmungen ergab sich die Länge des Sekundenpendels für die Königsberger Sternwarte gleich 440,8147 Linien oder, auf den Spiegel der Ostsee reduziert, gleich 440,8179 Linien. Als das geeignetste Mittel für spätere Messungen empfahl Bessel18 das Reversionspendel.
Gibt man diesem Instrumente19, wie Bessel vorschlug, eine geeignete Form, so läßt sich der Einfluß der Luft aus der Rechnung völlig ausscheiden. Es ist dies nämlich der Fall, wenn man das Reversionspendel in bezug auf beide Schneiden völlig symmetrisch gestaltet. Aus diesem Grunde hat man für die späteren zahlreichen auf einen Vergleich der Schwerkraft für die verschiedenen Orte der Erde abzielenden Untersuchungen das Reversionspendel benutzt, während das von Bessel in Vorschlag gebrachte Verfahren, ohne deshalb seine methodische Bedeutung zu verlieren, selten mehr zur Anwendung gekommen ist.
Hatte die Entdeckung Leverriers bewiesen, daß auch die fernsten Glieder unseres Systems dem Newtonschen Attraktionsgesetz gehorchen, so gelang es seit etwa 1830, die Gültigkeit dieses Gesetzes auch für die entlegensten Fixsternregionen durch Berech[Pg 34]nung und Beobachtung der Doppelsternbahnen darzutun und auch hierdurch einer einheitlichen Auffassung des gesamten Naturgeschehens den Weg zu ebnen.
Wir gelangen damit zu Encke, der nicht nur jene Untersuchung über die Doppelsterne anstellte, sondern auch durch das von ihm in Berlin geschaffene Sternkartenunternehmen die Entdeckung Leverriers ermöglichte.
Johann Franz Encke wurde 1791 in Hamburg geboren. Er studierte in Göttingen, wo er der Lieblingsschüler von Gauß war. Auch mit Bessel war er sehr befreundet. Als letzterer 1825 die Berufung nach Berlin ausschlug, wählte die dortige Akademie Encke. Vierzig Jahre hat er dieser Gesellschaft angehört und die Astronomie, die gleich der Mathematik während der ersten Jahrzehnte des 19. Jahrhunderts in Berlin keinen bedeutenden Vertreter hatte, dort wieder zur Blüte gebracht20.
Bevor wir uns mit den Aufgaben befassen, die Encke während seiner Berliner Tätigkeit löste, wollen wir uns seiner Erstlingsarbeit zuwenden. Im Jahre 1818 war ein Komet entdeckt worden, für den Encke, zunächst unter der Annahme, daß die Bahn eine parabolische sei, auf Grund der vorliegenden Beobachtungen Berechnungen anstellte. Encke sah sich, um Rechnung und Beobachtung in Übereinstimmung zu bringen, gezwungen, für den Kometen eine elliptische Bahn von der unerhört kurzen Umlaufszeit von 3,6 Jahren anzunehmen. Die wenigen bis dahin bekannt gewordenen, in Ellipsen sich bewegenden Kometen besaßen eine Umlaufszeit von mehr als 70 Jahren. Enckes Entdeckung war also für das Gebiet der Kometenforschung eine epochemachende, zumal er bald nachweisen konnte, daß der Komet von 1818 auch 1786, 1795 und 1805 beobachtet worden sei. Enckes im Jahre 1819 erschienene Abhandlung erhielt deshalb den Titel: »Über einen merkwürdigen Kometen, der wahrscheinlich bei dreijähriger Umlaufszeit schon zum vierten Male beobachtet ist.« Das Merkwürdigste war aber Enckes Entdeckung, daß sich die Umlaufszeit jenes Himmelskörpers jedesmal um drei Stunden verkürzte. Er schrieb diese Erscheinung einem widerstehenden Mittel zu und glaubte, daß die beobachtete Verzögerung ein unmittelbarer Beweis für das Vorhandensein eines das Weltall erfüllenden Äthers sei.[Pg 35] Ein Teil der zeitgenössischen Astronomen stimmte ihm darin bei; ein anderer Teil, darunter Bessel, suchte die Erscheinung auf andere Gründe zurückzuführen. Immerhin hatte Encke die Genugtuung, bis zu seinem Tode, also fast ein halbes Jahrhundert, den nach ihm genannten Kometen alle drei Jahre wiederkehren zu sehen.
Die erste Aufgabe, die Encke nach seiner Übersiedelung nach Berlin (1825) zu lösen hatte, war von Bessel angeregt worden. »Die Herausgabe neuer, möglichst vollständiger Himmelskarten«, heißt es darüber in den Abhandlungen der Akademie, »brachte unser auswärtiges Mitglied Bessel in Vorschlag. Solche Karten würden nicht nur das treueste Bild des Himmels darstellen bis zu der Grenze, die unsere jetzigen Fernrohre erlauben, sondern sie würden zugleich die Grundlage zur möglichst genauen Beobachtung der etwa noch fehlenden Sterne abgeben«. Das Zustandekommen und die Durchführung dieses mit ungeahnten Schwierigkeiten verknüpften großen Unternehmens ist vor allem das Verdienst Enckes gewesen. Die Kartierung ist indessen in mehrfacher Hinsicht unfertig geblieben; sie beschränkte sich zunächst auf einen 30 Grad breiten Äquatorialgürtel, umfaßte demnach nur einen Teil des gesamten Himmels. Aufgenommen wurden die Sterne bis zur 9. Größe. Der außerordentliche Wert einer solch mühevollen Arbeit bestand darin, daß man durch sie eine sichere Grundlage für alle späteren astronomischen Arbeiten schuf. Insbesondere ließen sich mit Hilfe dieser topographischen Aufnahme die Eigenbewegungen und die Helligkeitsänderungen genau verfolgen. Diesem ersten, in den Berliner Karten niedergelegten Versuch die helleren teleskopischen Sterne vollzählig zu ermitteln und mit den sichtbaren zu einem getreuen Bilde zu vereinigen, ist gegen das Ende des 19. Jahrhunderts jene große photographische Gesamtaufnahme des Himmels gefolgt, von der in einem späteren Abschnitt ausführlicher die Rede sein wird.
Encke war in erster Linie rechnender Astronom. Es ist bezeichnend für die Wertschätzung, die er als solcher erfuhr, daß Bessel befürchtete, Encke werde durch den Bau einer neuen Sternwarte von seinen höheren Aufgaben abgezogen werden. »Ich betrachte Sie«, schrieb Bessel ihm, »als denjenigen Astronomen, dem die Oberaufsicht über die Rechnungen zusteht. Nach meiner Meinung darf Ihnen die Sternwarte nie die Hauptsache sein. Ein Gehilfe muß darin die Arbeit übernehmen.« Der Bau einer neuen Sternwarte kam besonders durch A. von Humboldts Bemühungen[Pg 36] zustande; und Encke hat es im Verein mit tüchtigen Gehilfen, unter denen vor allem Galle als der Entdecker des Neptuns zu nennen ist, verstanden, dem neuen Institut bald eine führende Rolle zu sichern.
Enckes selbst von einem Bessel bewundertes rechnerisches Genie trat besonders zutage, als er es unternahm, aus den zahlreichen Beobachtungen, zu welchen die Venusdurchgänge der Jahre 1761 und 1769 Anlaß gegeben, mit Hilfe neuerer Verfahren, wie der Methode der kleinsten Quadrate, den Wert für die mittlere Entfernung der Sonne abzuleiten. Das Ergebnis dieser Untersuchung war Enckes Schrift vom Jahre 1822: »Die Entfernung der Sonne von der Erde aus dem Venusdurchgange von 1761 hergeleitet«. Aus den sämtlichen Beobachtungen dieses Durchganges schloß Encke21 auf eine mittlere Sonnenparallaxe von 8''490525. Diesem Wert entspricht ein mittlerer Sonnenabstand von 20,878745 Meilen. Als Grenzen der Ungewißheit ergaben sich für die Parallaxe 8''429813 und 8''551237 und dementsprechend für den Abstand 20,730570 und 21,029116 Meilen.
Einige Jahre später (1824) erschien eine zweite Schrift Enckes, in der er die Sonnenparallaxe auf Grund des gesamten Materials der Jahre 1761 und 1769 zu 8'',57116 und die mittlere Entfernung gleich 20,682329 geographischen Meilen berechnete. Dieser Wert ist in Gebrauch geblieben, bis die Venusdurchgänge des 19. Jahrhunderts (1874 und 1882) neues Material und damit einen neuen Wert ergaben.
Über die Berechnung der Doppelsternbahnen endlich ließ Encke eine grundlegende Abhandlung22 im Jahre 1832 erscheinen. Er folgte dabei dem Gedanken23, unter der Annahme des Gravitationsgesetzes aus einigen Positionsbestimmungen des Begleiters in Beziehung zum Hauptstern die Bahn des ersteren zu berechnen. Aus der Übereinstimmung des Resultates mit weiteren Beobachtungen ergab sich die Zulässigkeit der Annahme, daß das Gravitationsgesetz auch die Beziehungen unter den Doppelsternen regelt.
Unter den späteren Arbeiten Enckes ist vor allem seine Abhandlung vom Jahre 1851 über die Bestimmung einer ellipti[Pg 37]schen Bahn aus drei vollständigen Beobachtungen zu nennen24. Das betreffende Problem hatte Gauß in seiner »Theoria motus« in so vollkommener Weise gelöst, daß alle früheren Arbeiten, die sich mit seiner Lösung beschäftigten, in der Folge nur noch geschichtlichen Wert besaßen. Den späteren Astronomen bot sich daher hier nur eine geringe Nachlese. Trotzdem gelang es Encke in der erwähnten Abhandlung, einige von Gauß nur berührte Punkte weiter auszuführen und zumal in rechnerischer Hinsicht einige Verbesserungen der von Gauß gebotenen Lösung vorzuschlagen.
Encke und Bessel sind unter den deutschen Astronomen, welche den Übergang zwischen Gauß und der neuesten Periode dieser Wissenschaft vermittelt haben, als die hervorragendsten zu nennen. Encke war es, der die von Gauß angestrebte Verfeinerung der astronomischen Rechenkunst zur Vollendung brachte, während Bessel der Kunst der Beobachtung die entsprechende Förderung angedeihen ließ.
Von den älteren Zweigen der Physik hatte die Mechanik schon während der zweiten Hälfte des 18. Jahrhunderts einen hohen Grad der Ausbildung erreicht. Lagrange hatte sie in seiner als klassisch zu bezeichnenden Mécanique analytique vom Jahre 1788 in ein System gebracht, das für die weitere Entwicklung der Mechanik grundlegend gewesen ist. Die experimentellen Fortschritte, die sich im Verlauf des 19. Jahrhunderts an die klassische Periode der theoretischen Mechanik anschlossen, betrafen in erster Linie das Gebiet der Gase und der Flüssigkeiten. Auf diesem Gebiete wurde eine Reihe von Entdeckungen gemacht, die teils zu einer schärferen und allgemeinen Fassung des Energieprinzips hinüberleiteten, teils der Begründung der physikalischen Chemie die Wege geebnet haben. Vor allem ist hier die genauere Untersuchung der als Diffusion und Diosmose bezeichneten Vorgänge zu nennen.
Wohl die älteste hierher gehörende Beobachtung verzeichnete die wissenschaftliche Literatur um die Mitte des 18. Jahrhunderts25. Der durch seine Verdienste um die Erforschung der Reibungselektrizität bekannte Nollet26 hatte Weingeist in eine Flasche gefüllt und diese mit einem Stück Schweinsblase verschlossen. Um den Weingeist noch besser von der Luft abzuschließen, hatte er die Flasche darauf in Wasser gestellt. Nach einigen Stunden bemerkte er zu seinem Erstaunen, daß die Blase emporgewölbt und sehr gespannt war. Als er sie mit einer Nadel durchstach, spritzte ihr Inhalt hoch empor. Um auf den Grund dieser Erscheinung zu kommen, kehrte Nollet den Versuch sozusagen um. Er füllte nämlich eine Flasche mit Wasser, verschloß sie wieder mit einer[Pg 39] Blase und stellte sie in Weingeist. Diesmal wölbte sich die Blase allmählich nach innen, ein Beweis, daß sich das in der Flasche befindliche Wasser vermindert hatte. Nollet schloß aus diesen Versuchen, daß die Blase für Wasser durchlässiger sei als für Weingeist. Er gab nämlich folgende im allgemeinen zutreffende Erklärung: »Wenn die Blase auf der einen Seite mit Wasser und auf der anderen mit Weingeist in Berührung steht, so läßt sie, indem sich beide Flüssigkeiten um den Durchgang streiten, vorzugsweise das Wasser durch sich hindurchtreten.«
Es vergingen nicht weniger als achtzig Jahre, bis sich ein Forscher eingehender mit dieser merkwürdigen Erscheinung beschäftigte und ihre große Bedeutung für die Erklärung mancher Vorgänge erkannte. Es war der um die Begründung der neueren Physiologie so hochverdiente Dutrochet27.
Von Dutrochet rühren die Bezeichnungen Endosmose und Exosmose für den von Nollet entdeckten Vorgang her. Sind zwei Flüssigkeiten durch eine dünne, durchlässige Scheidewand getrennt, so gehen durch diese Wand zwei entgegengesetzte und verschieden starke Strömungen vor sich. Infolgedessen vermehrt sich die Flüssigkeit allmählich auf der Seite, nach welcher die stärkere Strömung gerichtet ist. Gemäß dieser Auffassung Dutrochets ist der Vorgang keineswegs auf tierische Häute beschränkt. Er findet vielmehr, wie Dutrochet nachwies, auch durch unorganische poröse Wände statt. Des weiteren zeigte Dutrochet, daß die Osmose sich nicht aus der Kapillarität erklären läßt28. Trennte er nämlich zwei Flüssigkeiten, deren kapillare Steighöhen verschieden sind, durch eine Membran, so ging die stärkere Strömung keineswegs von derjenigen Flüssigkeit aus, die eine größere kapillare Steighöhe besitzt.
Zwar erwies sich die Osmose als eine Erscheinung der allgemeinen Physik, da sie sowohl durch organische wie durch anorganische Stoffe vor sich geht. Doch erkannte Dutrochet, daß die Bedingungen für osmotische Vorgänge sich vorzugsweise in der organischen Natur verwirklicht finden. Welche Bedeutung Dutrochet diesem physikalischen Vorgang für die mechanische[Pg 40] Erklärung der Lebenserscheinungen zuwies, soll an anderer Stelle gezeigt werden.
Wie mit der Osmose der Flüssigkeiten, so wurde man mit dem entsprechenden Verhalten der Gase gleichfalls durch eine ganz zufällige Entdeckung bekannt. Döbereiner hatte einst einen mit Wasserstoff gefüllten Zylinder in der pneumatischen Wanne stehen lassen. Als er sich wieder nach dem Zylinder umsah, bemerkte er, daß die Sperrflüssigkeit erheblich gestiegen war. Das Volumen des in dem Zylinder eingeschlossenen Gases hatte sich also erheblich vermindert. Da eine Auflösung des Wasserstoffs in der Sperrflüssigkeit nicht in Betracht kam, so stand Döbereiner zunächst vor einem Rätsel. Schließlich bemerkte er, daß sich in dem Zylinder ein Sprung befand, durch den ein Teil des Wasserstoffs entwichen war29. Zehn Jahre vergingen, bis nach der Entdeckung Döbereiners in dem Engländer Graham ein Mann auftrat, der sich der Erforschung der Diffusion und der Osmose mit dem größten Erfolge widmete.
Grahams30 erste Abhandlung über die Diffusion der Gase erschien im Jahre 182931. Graham fand, daß die Geschwindigkeit, mit der die Gase ineinander diffundieren, von der Natur der Gase abhängt. So ergab sich, daß Wasserstoff sich viel rascher in der Luft verbreitet als Kohlendioxyd.
Zu diesem Ergebnis kam Graham auf folgendem Wege. Er schloß das zu untersuchende Gas in eine Glasröhre ein, die an dem einen Ende zugeschmolzen war. An dem anderen Ende wurde die Röhre durch einen Stöpsel verschlossen. In der Mitte des Stöpsels befand sich ein nach außen rechtwinklig gebogenes Röhrchen, das in eine feine Öffnung auslief.
Nachdem die Röhre mit dem zu untersuchenden Gase gefüllt war, wurde sie in horizontaler Lage auf einen Träger gelegt, und zwar so, daß das umgebogene Ende des offenen Röhrchens aufrecht stand, wenn das Gas schwerer als die Luft war. War das Gas dagegen leichter als Luft, so wurde das offene Ende des Röhrchens nach[Pg 41] unten gekehrt. Dies geschah, um ein mechanisches Ausfließen der Gase zu verhindern. In der geschilderten Lage ließ Graham die Röhre bei jedem Versuche 10 Stunden liegen. Dann analysierte er ihren Inhalt, um festzustellen, wieviel von dem Gase entwichen und wieviel atmosphärische Luft dafür eingedrungen war. Es ergab sich, daß von 150 Teilen Gas nach zehn Stunden noch vorhanden waren, bei Anwendung von
Wasserstoff | 8,3 | Teile |
Ammoniak | 61,0 | " |
Kohlendioxyd | 79,5 | " |
Chlor | 91,0 | " |
Hieraus schloß Graham, daß sich die Diffusionsgeschwindigkeit der Gase umgekehrt wie eine Funktion ihrer Dichte verhält. Um diese Funktion und damit das Gesetz32 für die Diffusion der Gase zu finden, stellte er weitere Versuche an. Sie führten ihn zu folgendem Ergebnis. Trennt man zwei Gase, die keine chemische Wirkung aufeinander ausüben, durch eine poröse Scheidewand, so dringen von jedem Gas Raumteile durch diese Wand, die sich nahezu umgekehrt wie die Quadratwurzel aus der Dichtigkeit der Gase verhalten. Voraussetzung ist, daß sich der Druck der Gase während der Dauer des Vorgangs nicht ändert. Die porösen Scheidewände, deren sich Graham bei seinen Diffusionsversuchen bediente, bestanden aus trockner Gipsmasse. Graham bestätigte das Gesetz der Diffusion der Gase durch Versuche mit Wasserstoff, Stickstoff, Sauerstoff, Schwefelwasserstoff, Kohlenmonoxyd, Kohlendioxyd usw. Zur Erläuterung mögen die mit Wasserstoff erhaltenen Ergebnisse dienen. Die Dichtigkeit der Luft verhält sich zur Dichtigkeit des Wasserstoffs wie
14,43 : 1.
Für 1 Raumteil Luft, die durch den Gipspflock in die Diffusionsröhre gelangte, traten 3,83 Raumteile Wasserstoff aus. Nun ist aber
1 : 3,83 = √1 : √14,43.
Die ausgetauschten Gasmengen sind ein Maß für die Geschwindigkeiten der Diffusion. Diese Geschwindigkeiten verhalten sich nach der Untersuchung Grahams somit umgekehrt wie die Quadratwurzeln aus den Dichten der diffundierenden Gase.
Von den Forschungen über die Diffusion der Gase schritt Graham zur Untersuchung des entsprechenden Verhaltens der Flüssigkeiten. Hatte dort Döbereiners Beobachtung als Ausgangspunkt für unsere Darstellung gedient, so knüpften Grahams Forschungen über die Diffusion der Flüssigkeiten an Nollets zufällige Entdeckung und an Dutrochets osmotische Untersuchungen an.
Graham gelangte zu dem wichtigen Ergebnis, daß sich die löslichen Stoffe in zwei Gruppen einteilen lassen, die er als Kristalloide und Kolloide unterschied. Als Kristalloide bezeichnete Graham solche Stoffe, deren Lösungen eine aus Schweinsblase oder aus Pergamentpapier bestehende Membran leicht durchdringen. Die Kolloide diffundieren dagegen durch eine derartige Membran äußerst wenig. Zu den Kristalloiden gehören Chlornatrium, Zucker, Bittersalz, kurz alle Stoffe, die leicht kristallisieren, während den Kolloiden33, wie Leim, Eiweiß, Gummi usw. diese Fähigkeit mangelt. Die Kristalloide und die Kolloide weisen also, wie Graham erkannte, einen ähnlichen Gegensatz auf, wie die leichtflüchtigen und die schwer flüchtigen Substanzen.
Dies brachte Graham auf den Gedanken, die Osmose zur Trennung der Kolloide von den Kristalloiden zu benutzen, ähnlich wie man den verschiedenen Grad der Flüchtigkeit verwertet, um beispielsweise Salmiak von Kochsalz durch Erhitzen des Gemenges zu trennen. Für seinen Zweck benutzte Graham den in Abb. 2 dargestellten, von ihm Dialysator genannten Apparat. Er spannte über einen leichten Holzreif eine Scheibe aus Pergamentpapier. Auf den Boden der so entstandenen Höhlung goß er die Lösung, welche dialysiert werden sollte. Das so erhaltene, siebförmige, zum Teil mit Flüssigkeit gefüllte Gefäß wurde in einen größeren, mit Wasser versehenen Behälter gesetzt, so daß es in der durch die Abbildung erläuterten Weise auf dem Wasser schwamm. Letzteres nimmt, zumal wenn man es häufiger[Pg 43] erneuert, die Kristalloidsubstanz auf, während der kolloidale Stoff nur in geringem Maße die Membran durchdringt. Infolgedessen besteht die in dem Dialysator befindliche Flüssigkeit schließlich aus einer fast reinen Lösung der Kolloidsubstanz. Grahams bekanntestes Beispiel einer solchen Trennung ist die Darstellung kolloidaler Kieselsäure durch Dialyse34. Er versetzte eine Lösung von Natriumsilikat mit einem Überschuß an Salzsäure35 und brachte das so entstandene Gemenge von Wasser, Kieselsäure, Kochsalz und Salzsäure in den Dialysator. Nach einiger Zeit waren das Salz und die Säure in das umgebende Wasser diffundiert, und in dem Dialysator befand sich fast reine, gelöste Kieselsäure. Wurde die Lösung der Kieselsäure etwas konzentriert und einige Tage aufbewahrt, so machte sich eine neue, merkwürdige, mit dem kolloidalen Zustand verknüpfte Erscheinung bemerkbar. Die Kieselsäurelösung verwandelte sich nämlich in eine farblose, fast durchsichtige Gelatine oder Gallerte. Durch eine solche gelatinierte Lösung geht, wie Graham nachwies, die Diffusion einer Kristalloidsubstanz mit wenig verringerter Geschwindigkeit, fast wie durch reines Wasser, vor sich, während die gelatinierte Lösung für eine Kolloidsubstanz fast undurchdringlich ist. Das Verhalten von Pergamentpapier und tierischer Membran ließ sich also daraus erklären, daß diese Scheidewände sich ganz wie gelatinöse Lösungen verhalten, weil sie selbst Kolloidsubstanzen sind. Graham dehnte die Untersuchung über den kolloidalen Zustand auf viele anorganische und organische Verbindungen aus. Er wurde dadurch zum Begründer eines besonderen Zweiges der Wissenschaft, den man heute als Kolloidchemie bezeichnet. Graham ging so weit, die beiden von ihm aufgestellten Gruppen von chemischen Verbindungen als »zwei verschiedene Welten der Materie« zu bezeichnen. Kristalloide und Kolloide sollten sich zu einander etwa wie der Stoff eines Minerals zur organisierten Substanz verhalten. Spätere Untersuchungen ließen jedoch erkennen, daß ein solch scharfer Gegensatz nicht vorhanden ist. Der Unterschied in dem Verhalten der Kristalloide und der Kolloide ist mehr gradweise als gegensätzlich. So diffundieren auch manche Kristalloide nur langsam durch tierische Membranen hindurch. Solche Kristalloide verhalten sich hinsichtlich der Diffusion also ähnlich wie Kolloidsubstanzen, deren Diffusion ja auch nicht[Pg 44] aufgehoben, sondern nur sehr verlangsamt ist. Die Theorie erklärt diese Unterschiede aus der Annahme, daß die Zwischenräume der Membransubstanz für die Moleküle gewisser Substanzen zu klein sind, um einen raschen Durchgang zu gestatten. Solche Stoffe sind es, die als Kolloide erscheinen.
Eine Stütze fand diese Ansicht durch das von St. Claire-Deville entdeckte und von Graham näher untersuchte Verhalten der Gase gegen erhitzte metallische Scheidewände36. Die bekanntesten Beispiele hierfür sind der Durchgang von Wasserstoff durch erhitztes Platin und von Kohlenoxyd durch glühendes Eisen. Nach der Vorstellung von St. Claire-Deville und Graham handelt es sich hier um eine Porosität, der ein weit höherer Grad von Feinheit zukommt als der Porosität von Gips, gebranntem Ton und ähnlichen Stoffen. Beide Forscher nahmen an, daß die Erscheinung auf intermolekulare Poren hinweist, die durch die Hitze in solchem Maße vergrößert werden, daß sie Gasmolekeln den Durchtritt gewähren, für die sie bei gewöhnlicher Temperatur zu eng sind.
Eine Fortsetzung fanden die osmotischen Untersuchungen, für die Dutrochet und Graham die Grundlagen geschaffen hatten, besonders von seiten der Physiologen. Sie erkannten, daß der tierische und pflanzliche Stoffwechsel, sowie die in den Zellen auftretenden Druckkräfte durch osmotische Vorgänge bedingt sind. An die zu physiologischen Zwecken angestellten osmotischen Untersuchungen knüpfte endlich die physikalische Chemie im neuesten Stadium ihre Entwicklung wieder an, um tiefer in das Wesen des chemischen Prozesses und in den molekularen Aufbau der Verbindungen einzudringen. Doch kann sowohl von diesen als auch von den physiologischen Ergebnissen der modernen Forschung erst an späterer Stelle die Rede sein. Daß die Dialyse auch für die Technik von Bedeutung geworden ist, sei hier nur nebenbei unter Hinweis auf die Zuckergewinnung erwähnt. An die Stelle des früheren, stets nur unvollkommenen Auspressens trat die Gewinnung des[Pg 45] zuckerhaltigen Saftes durch Diffusion, sowie die Trennung des Zuckers von den nicht kristallisierenden Substanzen durch Dialyse37.
Erst um die Mitte des 19. Jahrhunderts wurde auf dem Gebiete der Physik der Gase ein Problem zum Abschluß gebracht, mit dem sich schon das 17. Jahrhundert beschäftigte und das in seinen Anfängen bis in das griechische Zeitalter zurückreicht. Es ist dies das Problem, den Zusammenhang zwischen Volumen, Druck und Temperatur der Luft, sowie der Gase im allgemeinen zu ermitteln. Wir haben das Problem in früheren Abschnitten durch seine einzelnen Entwicklungsphasen verfolgt. Es hatte einen gewissen Abschluß durch Boyle und durch Gay-Lussac gefunden. Boyle hatte das Gesetz für die Abhängigkeit des Volumens vom Druck, Gay-Lussac die Beziehung zwischen Volumen und Temperatur entdeckt. Nach der von Gay-Lussac angestellten Untersuchung dehnen sich alle Gasarten, wenn man sie in gleichem Maße erwärmt, um gleichviel aus, nämlich für jeden Grad Celsius um 1/255 des Volumens, das sie bei 0° einnehmen38. Diesem nicht nur für die Wärmemessung, sondern auch für andere Zweige der Physik sehr wichtigen Koeffizienten hatte man durch Jahrzehnte volles Vertrauen entgegengebracht, zumal Daltons fast gleichzeitig angestellte Untersuchung dasselbe Ergebnis zu bringen schien39. Es ist von höchstem Interesse, zu sehen, wie das scheinbar zum Abschluß gebrachte Problem durch Zweifel an der Richtigkeit des Gay-Lussacschen Gesetzes um 1837 wieder aufgerollt wurde und zu einer Fülle von neuen, nach immer größerer Genauigkeit strebenden Messungen und theoretischen Folgerungen Anlaß gegeben hat.
Der erste Physiker, der sich mit einer Nachprüfung des von Gay-Lussac ermittelten Wertes befaßte und infolgedessen den[Pg 46] erwähnten Anstoß gab, war Rudberg40. Er bemerkte, daß die in Frage stehende Konstante, die für die Thermometrie, die barometrische Höhenmessung, die Ermittlung der Geschwindigkeit des Schalles und manches andere in Betracht kommt, erheblich geringer ist, als von Gay-Lussac angegeben. Als Grund dieser Abweichung vermutete Rudberg, daß Gay-Lussac bei seinen Versuchen die Luft und die übrigen Gase nicht genügend getrocknet habe41. Rudberg bemühte sich daher, die Luft zunächst soweit wie möglich von Feuchtigkeit zu befreien. Dazu bediente er sich des in der Gluthitze geschmolzenen und bei Luftabschluß erkalteten Chlorkalziums. Abb. 3 erläutert seine Versuchsanordnung. Die Glaskugel ab wurde mit dem Chlorkalziumrohr ED verbunden. Um die in der Kugel ab befindliche Luft zu trocknen, wurde sie durch starkes Erhitzen der Kugel zum großen Teile ausgetrieben. Beim Erkalten füllte sich die Kugel mit Luft, die durch das Chlorkalziumrohr ED treten mußte. Um jede Spur von Feuchtigkeit zu entfernen, wiederholte Rudberg diese Verrichtung etwa 50mal. Darauf wurde die Kugel in den Siedeapparat AB gebracht und nebst ihrem Inhalt auf 100° erhitzt. Schließlich wurde die Spitze der Kugel während des Siedens zugeschmolzen und erst unter Quecksilber wieder abgebrochen, nachdem die Kugel durch schmelzenden Schnee auf 0° abgekühlt war. Unter Berücksichtigung des Barometerstandes fand Rudberg auf diese Weise für die Temperaturdifferenz von 0° bis 100° die Ausdehnung der Luft zu 0,364 bis 0,365.
Das den früheren Angaben widersprechende Ergebnis der Untersuchung Rudbergs erregte großes Aufsehen und veranlaßte namhafte Physiker zu einer Nachprüfung. Eine solche war um so notwendiger, als man sich nach der Aufstellung der Avogadroschen[Pg 47] Regel der Bestimmung des spezifischen Gewichtes der gasförmigen chemischen Verbindungen unter Reduktion der erhaltenen Werte auf Grund des Boyleschen und des Gay-Lussacschen Gesetzes zur Feststellung der Molekulargewichte bediente.
Die erste Nachprüfung veranstaltete Magnus42. Sie ergab als Koeffizienten für die Ausdehnung der trockenen Luft den Wert 0,003665 und bestätigte Rudbergs Zahl (0,00365). Magnus stellte sich gleichzeitig die umfassendere Aufgabe, zu ermitteln, ob eins der allgemeinsten Gesetze der Physik genau oder nur annähernd richtig sei, ob nämlich, wie Gay-Lussac festgestellt haben wollte, alle Gase denselben Ausdehnungskoeffizienten besitzen oder nicht. Die von Magnus mit großer Schärfe angestellten Messungen ergaben für
Luft | 0,00366508 |
Wasserstoff | 0,00365659 |
Kohlendioxyd | 0,00369087 |
Schwefeldioxyd | 0,00385618. |
Es zeigte sich also, daß das Gay-Lussacsche Gesetz für die verschiedenen Gase zwar annähernd, aber nicht in aller Strenge richtig ist. Woran das liegt, vermochte Magnus nicht zu sagen. Doch fiel ihm auf, daß die leicht zu verflüssigenden Gase (Kohlendioxyd und Schwefeldioxyd) am meisten von dem für die Luft gefundenen Wert abweichen, während die Ausdehnungskoeffizienten der damals noch als permanent geltenden Gasarten (Luft und Wasserstoff) übereinstimmen. An diesem Punkte setzten die mit einem ganz außerordentlichen Aufwand an experimentellen Hilfsmitteln und mit größter Schärfe angestellten Untersuchungen von Regnault ein. Sie ergaben, daß die bisher für die Gase angenommenen Grundgesetze in aller Schärfe nur für den vollkommenen Gaszustand (gleichsam für ein ideales Gas) gelten, einen Zustand, dem sich die Gase, die uns die Natur darbietet, nur mehr oder weniger annähern. Vor allem fand Regnault, daß die Abweichungen um so größer werden, je mehr man durch Druck die Teilchen des Gases einander nähert. Offenbar wird dadurch den molekularen Anziehungskräften ein größerer Spielraum zu ihrer Betätigung gewährt. Schon für die aus permanenten Gasen bestehende Luft[Pg 48] zeigte es sich, daß ihr Ausdehnungskoeffizient mit dem Drucke merklich zunimmt. Mit anderen Worten: Die Luft dehnt sich zwischen denselben Temperaturgrenzen um so beträchtlicher aus, je näher ihre Teilchen sich beieinander befinden. Noch deutlicher und in gleichem Sinne trat diese Abweichung bei denjenigen Gasen hervor, die leicht in den flüssigen Zustand übergeführt werden können, z. B. beim Schwefeldioxyd43.
Die Erkenntnis, daß die Ausdehnung der Gase keineswegs in aller Strenge den einfachen Gesetzen folgt, die man solange als richtig betrachtet hatte, mußte auch den Wert des Luftthermometers beeinträchtigen. Das Luftthermometer hatte bis zu den Untersuchungen von Regnault als ein Normalthermometer gegolten. Man hatte geglaubt, in diesem Instrument ein Mittel zum Messen absoluter Wärmegrade zu besitzen. Jetzt ergab sich, daß seine Angaben der Zunahme der Wärme nicht genau proportional sind. Es besitzt demnach keinen höheren Rang als die übrigen Thermometer, deren Gang eine mehr oder weniger verwickelte Funktion der Temperaturzunahme ist. Auf diesem Gebiete wie überall war das Hauptergebnis der mit immer größerer Genauigkeit und mit Berücksichtigung möglichst aller Nebenumstände angestellten Messungen, daß absolute Vergleichspunkte und Vergleichssysteme nicht zu erlangen sind, sondern alle unsere Erkenntnis nur relativ ist. In der Astronomie hatte lange Zeit die Sonne als Beziehungspunkt gegolten. Ferner hatte man den Fixsternhimmel für ein unveränderliches Vergleichssystem gehalten. Seit der Entdeckung der Eigenbewegung der Sonne und aller übrigen Fixsterne gibt es genau genommen in der Astronomie kein absolutes Maß mehr. Ähnlich ist es seit der Aufstellung der Evolutionstheorie auf dem Gebiete der Biologie geworden. Der Artbegriff, der früher als etwas Feststehendes galt, hat nur noch einen relativen Wert. Ebenso hat sich in der Chemie das Element den Untersuchungen über die Radioaktivität zufolge als kein absolut unveränderlicher Komplex von Eigenschaften, sondern als etwas Wandelbares, nur relativ Bestimmtes ergeben.
Von Bedeutung für die Physik der Gase, sowie für manche anderen Gebiete war auch die Erfindung der Quecksilberluftpumpe[Pg 49] durch den Mechaniker Geißler (1857) und ihre Verbesserung durch Toepler (1861). Die Anregung zur Konstruktion dieses wichtigsten unter den neueren aerostatischen Apparaten ging von einem Physiologen aus, der sich des Vakuums bedienen wollte, um die in dem Blute gelösten Gase zu erhalten. Handelte es sich bei der Quecksilberluftpumpe auch um einen alten Gedanken, so ist die praktische Durchführung dieses Gedanken doch ein Triumph des neueren Instrumentenbaues. Toeplers »Quecksilberluftpumpe ohne Hähne, Ventile und schädlichen Raum« übertraf die Luftpumpen der alten, auf Guericke zurückgehenden Konstruktion in solchem Maße, daß sie einen tausendmal so großen Verdünnungsgrad ergab. Die Erfindung der Quecksilberluftpumpe, deren Prinzip ja darin besteht, die zu evakuierenden Gefäße in häufiger Wiederholung mit der Torricellischen Leere in Verbindung zu setzen, führte zur Herstellung der Geißlerschen Röhren und zur Entdeckung der Kathoden- und der Röntgenstrahlen. Auch für die Elektrotechnik, die sich der Quecksilberluftpumpe zur Herstellung evakuierter Glühlampen bediente, ist es fruchtbar geworden. Ein schönes Beispiel, wie ein Fortschritt auf einem Gebiete häufig zahlreiche Fortschritte in anderen, oft weit entlegenen Zweigen der Forschung oder der Praxis bedingt.
Die Versuche, die sich an die genauere Bestimmung des Ausdehnungskoeffizienten der Luft anschlossen, hatten zu der Erkenntnis geführt, daß die Gase in ihrem Verhalten um so mehr von den für einen gleichsam idealen Zustand geltenden Gesetzen Boyles und Gay-Lussacs abweichen, je mehr die Gase sich ihrem Kondensationspunkt nähern. Ganz zutreffend hatte Regnault diese Erscheinung auf das mit der Annäherung der Teilchen verbundene Auftreten molekularer Kräfte zurückgeführt. Die weiteren Untersuchungen ließen immer deutlicher erkennen, daß sich eine scharfe Grenze zwischen dem gasförmigen und dem dampfförmigen Zustand, ja zwischen den Aggregatszuständen überhaupt nicht angeben läßt. Daß die Gase nichts anderes als weit von ihrem Kondensationspunkt entfernte Dämpfe sind, hatten schon die Versuche Faradays wahrscheinlich gemacht. Trotzdem waren die Bemühungen, Sauerstoff, Stickstoff, Wasserstoff und einige andere Gase zu verflüssigen, vorerst erfolglos geblieben, obgleich man starke Druckkräfte und gleichzeitig eine Kältemischung aus Kohlendioxyd und Äther anwandte, mit der sich eine Temperatur von -78° Celsius erreichen ließ.
Einen großen Fortschritt in der Deutung der verschiedenen Aggregatszustände bewirkte die Untersuchung, welche Andrews44 über die Kontinuität des gasförmigen und des flüssigen Zustandes der Materie veröffentlichte. Andrews stellte seine Beobachtungen besonders an Kohlendioxyd an, einem Gas, das Faraday durch Zusammenpressen verflüssigt und Thilorier zuerst in größerer Menge im flüssigen und durch Verdunstung der Flüssigkeit im festen Zustande erhalten hatte. Andrews komprimierte Kohlendioxyd bei verschiedenen Temperaturen in Glasgefäßen. Dabei machte er die merkwürdige Entdeckung, daß sich oberhalb einer gewissen Temperatur (31° C), die Andrews die kritische Temperatur des betreffenden Gases nannte, keine Verflüssigung des Kohlendioxyds bewirken läßt, selbst wenn man den Druck bis zu beliebiger Höhe steigert. Das Eigentümliche dieses als »überkritisch« bezeichneten Zustandes erkennt man am besten aus folgender Schilderung des Entdeckers: »Bei der teilweisen Verdichtung von Kohlendioxyd durch bloßen Druck und gleichzeitiger allmählicher Steigerung der Temperatur bis auf 31° C wurde die trennende Fläche zwischen der Flüssigkeit und dem Gase immer undeutlicher, sie verlor ihre Krümmung und verschwand endlich ganz. Der Raum war dann erfüllt von einer homogenen Substanz, die bei einer plötzlichen Verringerung des Druckes oder der Temperatur ein eigentümliches Aussehen annahm. Es machte den Eindruck, als ob flatternde Streifen sich durch die ganze Masse bewegten.«
Es erhob sich die Frage, ob man es hier mit dem gasförmigen oder mit dem flüssigen oder gar mit einem neuen Zustande zu tun habe. Die Deutung, welche Andrews der von ihm beobachteten Erscheinung gab, konnte nur dahin lauten, daß wir es bei dem gewöhnlichen Gas- und bei dem gewöhnlichen Flüssigkeitszustande mit zwei weit voneinander getrennten Formen ein- und desselben Aggregatszustandes zu tun haben. Durch eine Reihe allmählicher Abstufungen lassen sich nämlich diese Formen so ineinander überführen, daß nirgends eine Unterbrechung bemerkbar ist. Vom vollkommenen Gase bis zur vollkommenen Flüssigkeit erfolgt der Übergang durch einen kontinuierlichen Vorgang. Das Kohlen[Pg 51]dioxyd bleibt bei Temperaturen über 31° C gasförmig, selbst wenn das Gas ein geringeres Volumen einnimmt, als es im flüssigen Zustande besessen hätte. Das gleiche Verhalten zeigen die übrigen, auf ihre kritische Temperatur und ihren überkritischen Zustand von Andrews untersuchten Gase, wie Ammoniak, Stickstoffoxyd usw.
Auch die Unterscheidung von Gas und Dampf erwies sich als eine ganz willkürliche und in wissenschaftlicher Hinsicht wertlose. Äther im gasförmigen Zustande hatte man als Dampf, Schwefeldioxyd dagegen in demselben Zustande als Gas bezeichnet. Dennoch sind beide Verbindungen Dämpfe, von denen der eine (Äther) aus einer bei +35° siedenden, der andere aus einer bei -10° siedenden Flüssigkeit hervorgeht. Ausschlaggebend war also nur der an sich unbedeutende Umstand, daß der Siedepunkt des Äthers höher und derjenige des Schwefeldioxyds tiefer liegt als die durchschnittliche Temperatur der Atmosphäre. Eine bessere Unterscheidung des dampfförmigen und des gasförmigen Zustandes läßt sich dagegen nach Andrews unter Beachtung der kritischen Temperatur des betreffenden Stoffes treffen. So würde Kohlendioxyd bei Temperaturen, die über +31° liegen, als Gas anzusprechen sein, weil es bei solchen Temperaturen durch keinen noch so hohen Druck verflüssigt werden kann. Unterhalb des kritischen Punktes, in einem Zustande, in dem die Substanz gasförmig und flüssig bestehen kann, wäre sie dagegen als Dampf zu betrachten.
Aus den Untersuchungen Andrews ging nun auch mit größter Wahrscheinlichkeit hervor, weshalb es trotz der Anwendung großer Druckkräfte noch nicht gelungen war, die sogenannten permanenten Gase, nämlich Sauerstoff, Stickstoff und Wasserstoff zu verflüssigen. Offenbar hatte man die Abkühlung nicht bis unter den kritischen Punkt getrieben. Sobald man diesen Umstand in Betracht zog, gelang es Sauerstoff und Stickstoff in den flüssigen Zustand überzuführen45. Beim Sauerstoff geschah dies unter einem Druck von 500 Atmosphären und bei einer Temperatur von -140°. Die kritische Temperatur des Sauerstoffs wurde zu -118°, sein Siedepunkt zu -182° ermittelt. Später gelang auch die Verflüssigung von Wasserstoff, dessen kritische Temperatur und dessen Siedepunkt noch tiefer liegen. Am schwierigsten war die Verflüssigung des Heliums,[Pg 52] das 1868 von Lockyer auf spektroskopischem Wege in der Sonne entdeckt und später als Bestandteil der Atmosphäre und des Minerals Cleveït nachgewiesen wurde. Es wurde erst durch Ramsay in den flüssigen Zustand übergeführt. Seine kritische Temperatur und sein Siedepunkt kommen dem absoluten Nullpunkt nahe.
Auf die Entwicklung der Kälteindustrie, die sich an diese Kette von Untersuchungen anschloß, kann hier nicht näher eingegangen werden. Theoretisch fanden die Forschungen über die Natur des gasförmigen Zustandes einen gewissen Abschluß durch van der Waals46. Es gelang ihm unter Berücksichtigung der mit der Verringerung des Volumens der Gase zunehmenden Molekularattraktion eine Gleichung aufzustellen, die sowohl den gasförmigen als den flüssigen Zustand in sich begreift. Diese van der Waalsche Zustandsgleichung ist als eine Erweiterung der Formel V . P = R . T zu betrachten, die für das Mariotte-Gay-Lussacsche Gesetz gilt47. Diese Formel nimmt bei van der Waals den Ausdruck
(V - b)(P + a/V2) = RT
an. Die Werte a und b sind gewisse, für jedes Gas erst zu ermittelnde konstante Größen. Van der Waals berechnete sie für Kohlendioxyd zu 0,00874 und 0,0023. Für dieses Gas besitzt die Zustandsgleichung somit die Form
(V - 0,0023)(P + 0,00874/V2) = R . T
Diese Formel entspricht nicht nur den von Andrews bei der Verdichtung des Kohlendioxyds erhaltenen Werten, sondern auch dem Verhalten des flüssigen Kohlendioxyds.
Von der größten Wichtigkeit für die neuere Physik und Chemie waren die Anschauungen, die Avogadro48 über die molekulare[Pg 53] Zusammensetzung der Gase entwickelte. Daß wir Avogadros Hypothese erst an dieser Stelle würdigen, obgleich er sie schon 1811 aufstellte, ist darin begründet, daß diese Hypothese zunächst kaum beachtet wurde. Erst um die Mitte des 19. Jahrhunderts hatte sich durch das Emporblühen der organischen Chemie und der Physik der Gase der Begriff des Moleküls soweit entwickelt, daß die Avogadrosche Hypothese in ihrer vollen Bedeutung erkannt und zur Grundlage der Molekulartheorie gemacht werden konnte.
Avogadros Hypothese erwuchs aus dem Bestreben, für das so gleichartige Verhalten, das die Gase trotz aller Verschiedenheit in ihrer chemischen Zusammensetzung gegenüber den Druck- und Temperaturveränderungen, sowie beim Eingehen von chemischen Verbindungen zeigen, eine gemeinsame Ursache aufzufinden. Die unmittelbare Anregung erhielt Avogadro durch Gay-Lussacs kurz vorher (1809) gemachte Entdeckung des Volumgesetzes. Es besagt, daß die Verbindungen der Gase nach einfachen Volumverhältnissen erfolgen und daß, wenn die Verbindung gasförmig ist, ihr Volumen gleichfalls in einem einfachen Verhältnis zu demjenigen Volumen steht, das die Gase vor ihrer Verbindung einnahmen49. Diese Tatsachen suchte Avogadro durch die Annahme zu erklären, daß gleiche Volumina der verschiedensten Gase gleichviel Moleküle enthalten. Vorausgesetzt wird selbstverständlich, daß die Gase unter ein und demselben Drucke stehen und bei gleicher Temperatur gemessen werden.
Um vergleichbare Werte zu erhalten, waren daher die gemessenen Gasvolumina, bevor man sie unter dem Gesichtspunkt der Avogadroschen Regel betrachtete, auf Normaldruck (1 Atm.) und Normaltemperatur (0°) zurückzuführen. Avogadro erkannte in seiner Regel ein Mittel, um die relativen Gewichte der Moleküle[Pg 54] solcher Stoffe zu bestimmen, die gasförmig sind oder leicht vergast werden können. Die Molekulargewichte zweier Gase verhalten sich nämlich, wenn man Avogadros Hypothese als richtig voraussetzt, wie ihre Dichtigkeiten. Für Stickstoff und Wasserstoff verhalten sich diese z. B. nach Avogadro wie 13,24 : 1 (das heute als gültig anerkannte Verhältnis ist 14,01 : 1).
Die Tatsache, daß sich ein Raumteil Stickstoff mit drei gleichgroßen Raumteilen Wasserstoff verbindet, bedeutet nach Avogadros Regel, daß jedes Molekül Ammoniak durch die Einwirkung eines Stickstoffmoleküls auf drei Wasserstoffmoleküle entsteht. Avogadro mußte nämlich für die Elemente annehmen, daß ihre freiexistierenden Teile nicht die Atome sind, sondern daß sich die freiexistierenden Teilchen aus Atomen zusammensetzen. Da beispielsweise in den zwei Raumteilen Ammoniak, die sich aus Stickstoff bei seiner Vereinigung mit Wasserstoff bilden, die doppelte Zahl von Molekeln enthalten ist, die sich in dem einen Raumteil Stickstoff findet, der in die Verbindung eingeht, da ferner in jedem Ammoniakmolekül Stickstoff enthalten ist, der aus dem einen Raumteil herstammt, so muß letzterer, damit der Avogadroschen Hypothese entsprochen ist, aus Molekeln bestehen, von denen jedes zwei Atome Stickstoff enthält50.
Eine wichtige Stütze erhielt die Avogadrosche Regel dadurch, daß das für manche Stoffe durch andere physikalische Methoden oder auf rein chemischem Wege gefundene Molekulargewicht mit dem aus der Dampfdichte abgeleiteten Molekulargewicht in vollem Einklang stand.
Gewisse scheinbare Abweichungen bestätigten nur die Regel, da sich die abnormen Dampfdichten, mit denen man später bekannt wurde, auf einen teilweisen oder vollständigen Zerfall der Moleküle zurückführen ließen. Derartige Vorgänge hat man als[Pg 55] Dissoziationen bezeichnet. Ihr Studium hat einen tiefen Einblick in das Wesen der chemischen Verwandtschaft erschlossen51.
Unabhängig von Avogadro gelangte auch der französische Physiker Ampère52 zu der Vorstellung, daß »die Zahl der Moleküle dem Volumen der Gase proportional ist«53. Ampère ging davon aus, daß alle Gase gegenüber Druck- und Temperaturveränderungen das gleiche Verhalten zeigen. Er erklärte dies aus der Annahme, daß die Moleküle der Gase soweit von einander entfernt seien, daß die Kohäsion und die Affinität nicht mehr zwischen ihnen wirke. Die Entfernungen hingen vielmehr nur vom Druck und von der Temperatur ab. Aus diesem Grunde seien die Gasmolekel bei gleichem Druck und gleicher Temperatur gleich weit von einander entfernt.
Der weitere Ausbau des durch Avogadros Theorie erschlossenen Gebietes hing von der Entwicklung der gasometrischen Methoden ab. Einen für leicht flüchtige Verbindungen geeigneten Apparat gab schon Gay-Lussac54 an. Er ließ in einer mit Quecksilber gefüllten, weiten Glasröhre BV, die in einer Quecksilberwanne stand, ein dünnwandiges Glaskügelchen emporsteigen, das eine abgewogene Menge der Substanz enthielt55. Dann wurde die Glasröhre mit ihrem Inhalt auf eine Temperatur erwärmt, die zum Zersprengen der Glaskugel und zum Verdampfen der eingeschlossenen Substanz genügte. Dies geschah, indem man in ein weites, die Glasröhre völlig einschließendes Gefäß (MM) eine Flüssigkeit goß und den ganzen Apparat erwärmte. Aus dem Gewicht der Substanz, dem Volumen des Dampfes, seiner Temperatur und seiner Spannung ließ sich die Dampfdichte berechnen.
Weit vollkommener und auch für schwerer flüchtige Stoffe geeignet war das von Dumas benutzte Verfahren56, das Abbildung 5 erläutert. Dumas ging von einem bekannten Volumen aus. Er brachte in einen Glaskolben weit mehr von der Substanz als zur Ausfüllung des Kolbens mit Dampf nötig war. Darauf wurde der Kolben je nach der Höhe des Siedepunktes in ein Wasser-, Säure- oder Metallbad RR gebracht. In diesem Bade wurde er auf eine etwas über dem Siedepunkt der Substanz liegende Temperatur erhitzt. Infolgedessen entwich aus der Spitze des Kolbens ein Dampfstrom, der die Luft daraus verdrängte und so lange dauerte, bis die Substanz völlig vergast war. Dann wurde die Spitze zugeschmolzen, und der Kolben nach dem Erkalten mit seinem Inhalt gewogen. Den Inhalt des Kolbens bestimmte man, indem man seine Spitze unter Quecksilber abbrach. Letzteres füllte den Kolben, da sich der Dampf verdichtet hatte, völlig aus, so daß sich aus der eingedrungenen Menge Quecksilber der Inhalt des Kolbens berechnen ließ.
Aus diesen Apparaten haben sich die neueren zur Bestimmung der Dampfdichte ersonnenen Vorrichtungen entwickelt57.
Auch auf den Gebieten der Optik und der Wärmelehre sind in dieser zur Aufstellung des Energieprinzips hinüberleitenden Periode eine Reihe von wichtigen theoretischen Fortschritten, Entdeckungen und Erfindungen zu verzeichnen. Auf dem Gebiete der[Pg 57] Optik bestand das wichtigste Ereignis darin, daß der Sieg der Undulations- oder Wellentheorie über die Emissionstheorie durch Fresnels Untersuchungen entschieden wurde. Dies geschah in dem Jahrzehnt von etwa 1820-183058.
Am meisten Schwierigkeiten machte es, die Doppelbrechung aus der Annahme zu erklären, daß das Licht in transversalen Schwingungen des Äthers besteht. Mit den Erscheinungen der Doppelbrechung und der Polarisation durch Doppelbrechung hatte sich schon Huygens, der Urheber der Wellentheorie, beschäftigt59. In seiner 1690 erschienenen Abhandlung über das Licht erklärte er die am Kalkspat entdeckte Doppelbrechung durch die Annahme, daß sich das Licht in diesem Mineral in sphäroidischen Wellen fortpflanze. Für die Polarisation fand Huygens keine Erklärung, weil er voraussetzte, daß das Licht wie der Schall auf longitudinalen Schwingungen beruhe. Nachdem man durch die Tatsachen zu der Annahme transversaler Schwingungen genötigt worden war, lag es nahe, die für die elastischen festen Körper entwickelte Theorie derartiger Schwingungen in die theoretische Optik einzuführen. Dies geschah fast gleichzeitig durch Cauchy60 und durch Franz Neumann61. Beide machten ihre Untersuchungen unabhängig von einander, Cauchy mehr vom mathematischen und Neumann mehr vom physikalischen Standpunkte aus. Neumann hat seine Theorie im Jahre 1832 veröffentlicht62. Er fand, daß in einem kristallinischen Medium die Bewegungen im allgemeinen in drei aufeinander senkrechten Richtungen stattfinden, nämlich parallel den drei Achsen des Ellipsoids.
Während Fresnel angenommen hatte, daß die Schwingungen beim polarisierten Licht senkrecht zur Polarisationsebene erfolgen, definierte Neumann als Polarisationsebene diejenige Ebene, welche durch die Wellenebene und die Schwingungsrichtung gelegt[Pg 58] ist. Daß sich die Erscheinungen der Polarisation aus beiden Annahmen erklären ließen, rührt daher, daß Fresnel und Neumann bezüglich der Beschaffenheit des Lichtäthers von verschiedenen Voraussetzungen ausgingen. Nach Neumann ist die Dichtigkeit des Äthers in allen Medien die gleiche, die Elastizität indessen verschieden, während Fresnel für die verschiedenen Medien Unterschiede in der Dichtigkeit des Äthers annahm.
Neumann war auch einer der ersten, der sich mit der in nichtkristallisierten Körpern durch Druck- und Wärmewirkung künstlich hervorgerufenen Doppelbrechung befaßte. Er zeigte, daß in diesem Falle dieselben Gesetze wie für kristallinische Substanzen gelten63.
Anknüpfend an die Wellentheorie des Lichtes entwickelte Doppler im Jahre 1842 in seiner Abhandlung »Über das farbige Licht der Doppelsterne und einiger anderer Gestirne des Himmels64« das nach ihm benannte Prinzip, daß die Höhe eines Tones, sowie die Art eines Lichteindrucks davon abhängen, ob sich die Entfernung zwischen der Wellenquelle und dem empfindenden Organ vergrößert oder verringert.
In dieser Abhandlung65 weist Doppler darauf hin, daß man sowohl in der Licht- und Schalllehre, wie auch in der allgemeinen Wellenlehre auf einen Umstand bisher keine Rücksicht genommen. Betrachte man nämlich die Licht- und Schallwellen als die Ursachen der Licht- und Schallempfindungen und nicht bloß als objektive Vorgänge, so müsse man nicht nur danach fragen, in welchen Zeitintervallen die Wellenbewegung an und für sich vor sich gehe, sondern in welchen Intervallen und in welcher Stärke die Äther- und die Luftschwingungen vom Auge oder von dem Ohre des Beobachters aufgenommen und dementsprechend empfunden würden.
»In der Tat scheint nichts begreiflicher«, sagt Doppler, »als daß die Zeit, die zwischen zwei Wellenschlägen verfließt, für einen[Pg 59] Beobachter sich verkürzen muß, wenn er den ankommenden Wellen entgegeneilt, dagegen sich verlängern, wenn er ihnen enteilt, und daß gleichzeitig im ersteren Falle die Intensität des Wellenschlages größer werden, im zweiten Falle dagegen abnehmen muß. Bei einer Bewegung der Wellenquelle selbst findet natürlich eine ähnliche Veränderung in demselben Sinne statt.«
Die experimentelle Bestätigung des Dopplerschen Prinzips, soweit es sich um akustische Vorgänge handelt, gelang Buys-Ballot. Er stellte seine Versuche auf einem in Bewegung begriffenen Eisenbahnzuge an. Es ergab sich für einen auf der Station verweilenden Beobachter, daß der Ton eines auf dem Zuge gegebenen Signals höher würde, wenn der Zug sich näherte und tiefer, wenn er sich entfernte. Und zwar entsprachen die Änderungen in der Tonhöhe der von Doppler aufgestellten Theorie.
Weit schwieriger als der akustische war der optische Nachweis der Richtigkeit des Dopplerschen Prinzips, da selbst die kosmischen Ortsveränderungen im Verhältnis zur Fortpflanzungsgeschwindigkeit des Lichtes nur gering sind.
Doppler suchte aus seinem Prinzip das verschiedenfarbige Licht der Fixsterne zu erklären. Wenn ein leuchtender Gegenstand sich dem Auge nähert, so gehe die Farbe mit steigender Geschwindigkeit von Weiß in Grün, dann in Blau und endlich in Violett über. Entfernt sich die Lichtquelle vom Beobachter, so sollte sich das ausgesandte weiße Licht in Gelb, Orange und endlich in Rot verwandeln. Ganz abgesehen davon, daß die Sterne ganz ungeheuere Geschwindigkeiten besitzen müßten, falls ihr Licht die ihnen von Doppler zugeschriebenen Änderungen erleiden soll, hat sich auch aus anderen Gründen Dopplers Erklärung des farbigen Lichtes der Sterne als unzutreffend erwiesen. Trotzdem wurde Dopplers Prinzip für die Astronomie außerordentlich fruchtbar. Als nämlich zwanzig Jahre später die spektralanalytische Untersuchung der Gestirne begann, nahm man Verschiebungen der Spektrallinien wahr, die nur dadurch ihre Erklärung finden konnten, daß man sich des Dopplerschen Prinzips bediente. Auch darin gab die Zukunft Doppler Recht, daß tatsächlich aus seinem Prinzip auf eine auf uns zu oder von uns fort gerichtete Bewegung der Fixsterne geschlossen werden kann, wenn es sich auch nur um eine der geringen Verschiebung der Spektrallinien entsprechende Geschwindigkeit von wenigen Meilen handelt. Die Fortschritte der modernen Astrophysik werden uns noch Ge[Pg 60]legenheit geben, die Bedeutung des Dopplerschen Prinzips in seiner ganzen Tragweite zu ermessen.
Auch in der Anfertigung von optischen Instrumenten und in der Theorie des Sehens fanden um die Mitte des 19. Jahrhunderts zahlreiche Fortschritte statt, die hier, wo es in erster Linie auf die Entwicklung der großen Probleme ankommt, indessen nur angedeutet werden können. So führten die Untersuchungen über die Polarisation des Lichtes zur Erfindung der Polaristrobometer, d. h. von Apparaten, welche die Drehung des Polarisationswinkel genauer zu messen gestatteten. Unter diesen Apparaten ist vor allem das Saccharometer von Soleil (1847) zu nennen. Wie sein Name sagt, dient es dazu, den Zuckergehalt von Lösungen zu bestimmen. Und zwar geschieht dies, indem man den Winkel mißt, um den die Polarisationsebene des Lichtes beim Hindurchgehen durch die zuckerhaltige Lösung gedreht wird.
Daß sich das Polarimeter nicht nur praktischen Zwecken dienstbar machen, sondern auch zur Bewältigung theoretischer, scheinbar mit der Optik zunächst in gar keiner Beziehung stehender Aufgaben verwerten läßt, bewiesen die Arbeiten Jellets über chemische Massenwirkung und die späteren Untersuchungen über die Geschwindigkeit, mit welcher chemische Reaktionen verlaufen. Wir werden bei der Beschäftigung mit diesen Problemen der allgemeinen Chemie auf die Dienste, welche das Polarimeter der Wissenschaft in allen ihren Zweigen geleistet hat, wieder zurückkommen.
Untersuchungen über die Physiologie der Gesichtswahrnehmung führten zur Erfindung des Stereoskops und anderer binokularer Instrumente. Das erste Stereoskop verfertigte, der auf vielen Gebieten als Erfinder bekannt gewordene Engländer Wheatstone66. Wheatstone ging von einer vor ihm kaum beachteten Tatsache aus, die sich auf die binokulare Wahrnehmung naher Gegen[Pg 61]stände bezieht. Betrachtet man z. B. einen Würfel aus geringer Entfernung mit beiden Augen, so sieht jedes Auge ein besonderes Bild des Körpers, wie es die nebenstehende Zeichnung Wheatstones erläutert67. Das Bild a ist die perspektivische Projektion, welche das linke, b diejenige, welche das rechte Auge wahrnimmt. Auf der Verschiedenheit dieser Projektionen beruht offenbar der räumliche Eindruck, den wir von dem in der Nähe gesehenen Gegenstande erhalten. Die beiden perspektivischen Projektionen werden um so ähnlicher, je weiter wir uns von dem Gegenstande entfernen. Aus diesem Grunde erscheinen uns entfernte Objekte auch nicht mehr körperlich.
Zur Bestätigung der Ansicht, daß das körperliche Sehen auf der gleichzeitigen Wahrnehmung von zwei einander unähnlichen perspektivischen Bildern beruht, konstruierte Wheatstone einen besonderen Apparat. Diesem liegt das Prinzip zugrunde, daß jedem Auge an Stelle des Gegenstandes die Projektion des Gegenstandes auf eine Ebene so dargeboten wird, wie sie dem Auge erscheint. Die nebenstehende Abbildung stellt den von Wheatstone Stereoskop genannten Apparat nach seiner Zeichnung dar. Er besteht aus zwei ebenen Spiegeln (A, A), die einen Winkel von 90° einschließen. Die beiden perspektivischen Bilder des Gegenstandes werden auf den seitlichen, verschiebbaren Tafeln DD so angebracht, daß das Spiegelbild des rechten Bildes durch den rechterhand befindlichen Spiegel in das rechte Auge und das zweite Spiegelbild durch den anderen Spiegel in das linke Auge gelangt.
Der Erfolg entsprach ganz der gehegten Erwartung. Bringt man nämlich die Bilder zu den Augen in die richtige Stellung, so wird nur ein einziges, körperlich erscheinendes Bild wahrgenommen.
Zehn Jahre später gab Brewster68 dem Stereoskop die in Abbildung 8 dargestellte, noch heute gebräuchliche Einrichtung. Zwei Halblinsen l und l1 sind so gefaßt, daß ihr Abstand gleich dem Abstande der Pupillen ist (etwa 6,5 cm). Die beiden perspektivischen Bilder a und b befinden sich in einer Ebene. Sie werden durch die prismenförmigen Halblinsen um so viel nach einem zwischen a und b liegenden Punkt verschoben, daß sie auf identische Punkte der Netzhäute fallen. Infolgedessen nimmt man nur ein Bild wahr, das aber infolge der Verschiedenheit der unähnlichen Bilder, die in der Wahrnehmung zusammengefaßt werden, körperlich erscheint.
Ein weniger bekanntes, aber nicht minder wichtiges neueres optisches Instrument ist der von Toepler69 erfundene Schlierenapparat70. Dieser Apparat löst die ganz neue Aufgabe, die kleinsten Unregelmäßigkeiten, die in den Brechungsverhältnissen durchsichtiger Medien stellenweise auftreten, unmittelbar sichtbar zu machen. Derartige Unregelmäßigkeiten und Schwankungen machen sich, wenn sie bedeutend sind, in etwas dickeren Glasmassen oder auch bei Lösungsvorgängen (Zucker in Wasser) dem bloßen Auge be[Pg 63]merkbar und sind unter dem Namen »Schlieren« bekannt. Bei Glasmassen, die zur Herstellung optischer Instrumente dienen, sind solche Schlieren sehr störend, weil sie infolge unregelmäßiger Brechung die Schärfe der optischen Bilder beeinträchtigen. Ein Apparat, der auch die feineren, dem bloßen Auge verborgen bleibenden Schlieren aufzudecken gestattet, mußte daher für die praktische Optik sehr wertvoll sein. Er war es aber, wie wir sogleich des näheren sehen werden, nicht weniger für viele Teile der theoretischen Physik.
Das Prinzip, nach dem Toepler seinen Schlierenapparat verfertigte, wird durch die nebenstehende, von ihm herrührende Zeichnung erläutert. Es sei a ein leuchtender Punkt und L eine Konvexlinse, welche die von a ausgehenden Strahlen in b vereinigt. Ein in der Linsenachse befindliches Auge O wird so nahe an den Punkt b herangebracht, daß die von b aus divergierenden Strahlen sämtlich durch die Pupille hindurch auf die Netzhaut gelangen. Ein wichtiger Teil des Apparats ist eine undurchsichtige, mit einer feinen Öffnung versehene Scheidewand (in der Abbildung durch hc angedeutet). Der Apparat wird so eingestellt, daß sich b gerade in der Öffnung der Wand befindet. Dann wird das Auge O, wenn die Linse L optisch ganz homogen ist, ein gleichmäßig erleuchtetes Bild der Linse erblicken. Befindet sich dagegen im Innern der Linse eine Stelle gi, deren Brechungsvermögen von dem der übrigen Glasmasse abweicht (eine Schliere), so werden die durch gi gehenden Lichtstrahlen nicht genau nach b, sondern beispielsweise von g nach d und von i nach f gebrochen werden. Solche Strahlen werden also durch das Diaphragma abgeblendet,[Pg 64] weil sie nicht die Öffnung, sondern die undurchsichtige Masse des Diaphragmas treffen. Die Folge ist, daß sich die Schliere in dem Gesichtsfelde des Auges O als eine dunkle Stelle bemerkbar macht. Noch besser lassen sich die Schlieren als helle Flecken auf einem dunklen Gesichtsfelde erkennen. Man braucht nur das Diaphragma ein wenig zu verschieben, so werden die regulären Strahlen abgeblendet, während unregelmäßig gebrochene Strahlen die Öffnung passieren und hell auf dem durch Ausschalten der regulären Strahlen verdunkelten Gesichtsfelde erscheinen. Bei dieser Anordnung lassen sich die geringsten optischen Unregelmäßigkeiten der brechenden Substanz leicht und sicher erkennen.
Solche Unregelmäßigkeiten können in dem brechenden Medium durch kleine Unterschiede in der chemischen Zusammensetzung bedingt sein, wie es bei einer Glasmasse von einiger Größe leicht der Fall ist. Sie werden, wie Toepler nachwies, aber auch in völlig homogenen Substanzen durch ungleichmäßige Erwärmung oder durch einseitigen Druck hervorgerufen. Bei empfindlicher Einstellung genügte schon die Wärme der Hand, um bandartige Schlieren, wie sie das bloße Auge in der Luft über stark erhitzten Körpern wahrnimmt, im Gesichtsfelde aufsteigen und flammenartig hin- und herziehen zu sehen. Brachte Toepler ein Gefäß, in dem sich ein farbloses Gas (z. B. Kohlendioxyd) entwickelte, vor seinen Apparat, so sah er das Gas in deutlichen Schlieren in die umgebende Luft diffundieren. Ja, es gelang ihm sogar, die Schallwellen sichtbar zu machen, wenn die Verdichtungen und Verdünnungen der Luft, die bei der Ausbreitung des Schalles auftreten, intensiv genug waren, um eine genügende periodische Änderung des Brechungsvermögen hervorzurufen.
Diese an sich schon wunderbaren Leistungen des Schlierenapparats, sowie diejenigen des Stereoskops wurden dadurch noch bedeutend vervollkommnet, daß man mit den neuen optischen Beobachtungsmethoden das fast gleichzeitig sich entwickelnde photographische Verfahren in Verbindung setzte.
Als Wheatstone 1838 das Stereoskop erfand, mußte er noch für jedes Bild von einem geschickten Künstler zwei perspektivische Zeichnungen anfertigen lassen. Sechs Monate nachdem Wheatstone seine Erfindung bekannt gegeben, entdeckte Talbot sein »Verfahren, mit Hilfe des Lichtes zu zeichnen«. Wheatstone erkannte sofort, daß der vollendetste Künstler, nur von seinem Auge geleitet, die perspektivischen Bilder nicht so genau herstellen kann, wie es[Pg 65] der photographische Apparat vermag. Er setzte sich daher mit Talbot in Verbindung und erhielt von ihm für das Stereoskop geeignete, d. h. von zwei Stellen aufgenommene, photographische Bilder von Naturkörpern, Gebäuden, Maschinen, ja sogar von lebenden Personen. Um stereoskopische Bilder herzustellen, wurden auch wohl zwei Kameras gleichzeitig benutzt. Brewster vereinigte schließlich die beiden photographischen Apparate zu einer Doppelkamera.
Die Schlierenmethode, bei der es sich um rasch veränderliche Erscheinungen handelt, ließ sich mit der Photographie erst verbinden, nachdem man die Trockenplatten erfunden und Momentaufnahmen ermöglicht hatte. Staunenswerte Erfolge erzielte vor allem Mach71. Es gelang ihm durch ballistisch-photographische, mit Hilfe der Schlierenmethode angestellte Versuche die durch Geschosse in der Luft verursachten Vorgänge zu ermitteln. Auf demselben Wege vermochte man die Schallwellen und zahlreiche mit der Ausbreitung des Schalles zusammenhängende Einzelheiten zu fixieren und dadurch der genaueren Untersuchung zugänglich zu machen.
Eine Bereicherung, die einen mehr theoretischen Wert besitzt, erfuhr die Optik durch die terrestrische Bestimmung der Geschwindigkeit des Lichtes. Diese Bestimmung gelang den französischen Physikern Fizeau und Foucault. Sie lieferte Ergebnisse, die mit den früher auf astronomischem Wege erhaltenen Resultaten hinreichend übereinstimmen.
Fizeau72 wandte eine Scheibe an, die nach Art der Zahnräder am Umfange gleichgroße volle und ausgeschnittene Sektoren besaß (siehe Abb. 10). Wird ein Lichtstrahl, nachdem er durch eine der Lücken gegangen, vermittelst eines Spiegels in der Weise reflektiert, daß er nach demselben Punkte zurückkehrt, so wird er, wenn die Scheibe sich dreht, entweder durch die Lücken durchgelassen oder von den Zähnen aufgefangen werden, je nach der Geschwindigkeit der Scheibe und dem Abstande des reflektierenden Spiegels. Fizeau stellte das Fernrohr F, das mit der rotierenden Scheibe R, dem durchsichtigen spiegelnden Glasstück s und der Lichtquelle L verbunden war, an einem bestimmten[Pg 66] Orte auf und brachte den reflektierenden Spiegel s' in den Brennpunkt des mit F gleichgerichteten Fernrohrs F', das sich an einem 8633 Meter entfernten Orte befand. Als die Scheibe 12,6 Umdrehungen in der Sekunde machte, erfolgte die erste Verfinsterung für den durch A blickenden Beobachter, ein Beweis, daß an die Stelle der Lücke ein Zahn getreten war, während das Licht den Weg von 17266 Metern (2.8633) durchlaufen hatte. Bei verdoppelter Geschwindigkeit des Randumfanges erglänzte der Punkt aufs neue, da der zurückkehrende Strahl jetzt die nächstfolgende Lücke traf. Bei dreifacher Geschwindigkeit entstand wieder eine Verfinsterung, bei vierfacher erglänzte der Punkt abermals und so fort. Aus der Zeit, welche der Zahn des Rades gebraucht, um an die Stelle der Lücke zu treten, und der Strecke von 17266 Metern, welche der Strahl in eben dieser Zeit zurücklegt, berechnete Fizeau die Fortpflanzungsgeschwindigkeit des Lichtes zu 42219 geographischen Meilen, ein Wert, der nur um 0.5% von demjenigen abweicht, der sich aus der Verfinsterung der Jupitertrabanten unter Zugrundelegung der von Encke berechneten Sonnenparallaxe73 ergibt.
Von hervorragendem Interesse war die zweite, von Foucault eingeschlagene Methode, da sie endgültig gegen die Emissionstheorie zugunsten der Undulationshypothese entschied. Nach der ersteren Theorie wird nämlich die Brechung des Lichtes durch eine Beschleunigung veranlaßt, die es bei seinem Eintritt in das dichtere Medium erfährt, während nach der Undulationstheorie mit dem Eintritt in das dichtere Medium eine Verringerung der[Pg 67] Lichtgeschwindigkeit erfolgt. Arago hatte schon 1838 darauf hingewiesen, daß die eine von den beiden Theorien unterlegen sei, sobald es gelänge, experimentell festzustellen, in welchem Sinne die Geschwindigkeit des Lichtes bei seinem Eintritt aus dem dünneren in das dichtere Medium sich ändert.
Die Bewältigung dieses Problems von solch ausschlaggebender Bedeutung gelang Foucault im Jahre 185474. Er bediente sich dazu des sich drehenden Spiegels, den Wheatstone75 schon im Jahre 1834 zur Bestimmung der Geschwindigkeit der Elektrizität benutzt hatte. Wheatstones Methode beruht darauf, daß zwei rasch aufeinander folgende, für das gewöhnliche Sehen gleichzeitige Ereignisse, wie das Überspringen des elektrischen Funkens an verschiedenen Unterbrechungsstellen ein- und desselben Stromkreises, in ihrem zeitlichen Nacheinander an der gegenseitigen Verschiebung erkannt werden, welche die entsprechenden, durch einen schnell rotierenden Spiegel erzeugten Bilder erleiden. In ähnlicher Weise, wie es Fizeau getan, ließ Foucault den Lichtstrahl eine gewisse Strecke zurücklegen und durch Reflexion wieder nach seinem Ausgangspunkte gelangen, wo er den rotierenden Spiegel traf. Hatte letzterer innerhalb der verflossenen Zeit schon einen deutlich wahrnehmbaren, aus der Verschiebung des Spiegelbildes zu entnehmenden Winkel beschrieben, so ergab sich aus dem entsprechenden Zeitintervall, sowie aus der vom Licht durchlaufenen Strecke die Geschwindigkeit des letzteren. Der so gefundene Wert war etwas geringer als der von Fizeau ermittelte; er betrug nämlich 40160 Meilen. Indem dann Foucault die vom Lichte zu durchlaufende Strecke so klein wählte, daß er eine mit Wasser gefüllte Röhre in diese Strecke einschalten konnte, fand er, daß das Licht sich in dem dichteren Medium langsamer fortpflanzt als in der Luft. Foucault konnte daher seine Abhandlung mit der Erklärung schließen, daß die Emissionstheorie mit den Tatsachen im Widerspruche stehe. Damit war ein durch 1½ Jahrhunderte währender Streit zu dem seit Fresnels Erfolgen allerdings nicht mehr zweifelhaften Ausgange geführt.
Wie die Optik, so erfuhr auch die Wärmelehre in dieser Periode manchen Fortschritt. Als einer der wesentlichsten sei hier[Pg 68] der durch Melloni76 geführte Nachweis der Identität der Licht- und Wärmestrahlen genannt. Der von Melloni zu diesem Zwecke benutzte Apparat ist die Thermosäule in Verbindung mit dem Multiplikator (der Thermomultiplikator). Vermittelst dieser Vorrichtung gelang es, nicht nur die Reflexion und Brechung, sondern auch die Beugung, Interferenz, Doppelbrechung und Polarisation der strahlenden Wärme, kurz, deren Übereinstimmung mit dem Lichte darzutun.
Während Herschel die Möglichkeit einer Identität der Licht- und Wärmestrahlen wohl in Betracht gezogen hatte, aber zu dem Schluß gekommen war, daß eine solche nicht vorhanden sei77, wurde durch Melloni und seine Mitarbeiter78 der Beweis erbracht, daß alle Unterschiede, durch welche die optischen, thermischen und chemischen Wirkungen bedingt sind, auf Verschiedenheiten in der Wellenlänge und der Intensität zurückgeführt werden müssen.
Auf dem Gebiete der Elektrizitätslehre war das 18. Jahrhundert der Erforschung der Reibungselektrizität gewidmet, das 19. setzte mit dem Studium des Galvanismus ein. Auch hier begegnen uns die drei Etappen, die sich in der Erschließung jedes wissenschaftlichen Gebietes nachweisen lassen. Auf das Bekanntwerden mit den Grunderscheinungen folgte die Entdeckung der Gesetze und schließlich die Aufstellung einer Theorie. Der Ausbau des neuen Wissensgebietes erscheint um so vollendeter, je besser sich die Theorie den Gesetzen und den grundlegenden Beobachtungen anpaßt.
Die Erscheinungen der galvanischen Elektrizität, mit denen man während der ersten Jahrzehnte des 19. Jahrhunderts bekannt wurde, lassen sich in vier Gruppen teilen. Wir haben sie als die chemischen, die magnetischen, die dynamischen und die thermischen Wirkungen der galvanischen Elektrizität unterschieden79. Während des vierten Jahrzehnts des 19. Jahrhunderts wurde durch Faradays Erforschung der galvanischen und der magnetischen Induktion eine weitere Gruppe von Erscheinungen erschlossen.
Faraday gehört zu den hervorragendsten Forschern, die uns im Verlaufe der Entwicklung der Naturwissenschaften begegnen. Aus diesem Grunde wollen wir ihm wie Galilei, Newton, Gauß und anderen Männern eine gesonderte Behandlung zu teil werden lassen, die sich nichtsdestoweniger in diesen, der Begründung der neueren Elektrizitätslehre gewidmeten Abschnitt zwanglos einfügen läßt.
Michael Faraday80 wurde am 22. September 1791 in einem kleinen Orte in der Nähe von London geboren. Sein Vater war[Pg 70] Hufschmied und gehörte zu einer aus der schottischen Kirche hervorgegangenen Sekte, welcher auch der Sohn bis an sein Lebensende treu geblieben ist. Vom 13. Jahre an mußte Faraday selbst für seinen Unterhalt sorgen. Er wurde zunächst Laufbursche und darauf Lehrling in einer Buchbinderei. Sein Interesse für die Naturwissenschaften wurde durch das Lesen der zum Einbinden bestimmten Bücher angeregt. Ohne die Berufsgeschäfte zu vernachlässigen, wußte er sich sogar durch einfache Versuche das Gelesene zu veranschaulichen. Ein Mitglied der Royal Institution, das bei dem Meister Faradays arbeiten ließ, ermöglichte dem lernbegierigen Jüngling den Zutritt zu den Vorträgen Davys. Jetzt entbrannte in Faraday der Wunsch, gleichfalls wissenschaftlich arbeiten zu können. »In der Unkenntnis der Welt und der Einfalt meines Gemütes«, bekannte er später in den wenigen eigenen Aufzeichnungen, die wir über sein Leben besitzen81, »schrieb ich noch als Lehrling an den damaligen Präsidenten der Royal Society. Ich erkundigte mich bei dem Portier nach einer Antwort, aber natürlich vergebens.« Mit besserem Erfolge wandte Faraday sich darauf an Davy, dem er als Beweis seines Strebens die Ausarbeitung der gehörten Vorträge übersandte. Der Meister hatte für den eifrigen Jünger seiner Wissenschaft eine gütige Antwort und beschäftigte ihn mit schriftlichen Arbeiten, als er selbst durch eine Explosion verwundet war. Bald darauf bot ihm Davy die Stelle eines Gehilfen an dem Laboratorium der Royal Institution an. Faraday, der sich danach sehnte, aus seinem Gewerbe entlassen zu werden, nahm die Stelle mit Freuden an. Der Gegenstand, der ihn zuerst beanspruchte, war kein angenehmer; es galt nämlich, den Chlorstickstoff zu untersuchen, eine Verbindung, deren Explosion die erwähnte Verletzung Davys herbeigeführt hatte. Auch Faraday entging einer solchen nicht. »Ich freue mich«, schrieb er damals an einen Freund, »daß ich Ihnen in Ruhe über unsere Erfolge berichten kann, denn ich bin, wenn auch nicht ohne Verletzung, vier starken Explosionen dieses Stoffes entgangen. Die schlimmste erfolgte, während ich eine kleine Röhre hielt, in der 7½ Gran Chlorstickstoff enthalten waren. Die Explosion war so heftig, daß mir ein Teil des Nagels abgerissen wurde und die Stücke der Rohre in die gläserne Maske einschnitten, die ich zum Glück vor hatte.«
Später gelang es Faraday, das Element Chlor und einige andere Gase, die man bisher für permanent gehalten hatte, zu verflüssigen. Seitdem brach sich die Erkenntnis Bahn, daß der Aggregatszustand lediglich von den herrschenden Druck- und Temperaturverhältnissen abhängig ist. Durch die Bemühungen anderer Physiker82 wurden Kohlendioxyd und Stickoxydul in den flüssigen und in den festen Zustand übergeführt. Versuche mit Wasserstoff scheiterten dagegen trotz Anwendung eines gewaltigen Druckes. Indessen äußerte schon Faraday die Ansicht, die sich später bewahrheiten sollte, daß die beständigsten Gase durch die Vereinigung hohen Druckes mit niedriger Temperatur bezwungen werden müßten.
Seinem eigentlichen Arbeitsfelde, der Elektrizitätslehre, wurde Faraday durch Oersteds epochemachende Entdeckung des Elektromagnetismus zugeführt. Man hatte sich in London die Aufgabe gestellt, statt der von Oersted gefundenen bloßen Ablenkung eine bleibende Rotation des Magneten durch den galvanischen Strom zu bewirken. Der erste, dem die Lösung dieses Problems gelang, war Faraday83. Er beschwerte den einen Pol des Magneten mit Platin und ließ ihn dann derartig in einem mit Quecksilber gefüllten Gefäße schwimmen, daß der andere Pol aus der Flüssigkeit hervorragte. Wurde dann ein Strom durch das Quecksilber von der Mitte nach dem Umfang geleitet, so rotierte der Magnet um die Achse des Gefäßes.
Neben dieser Erweiterung der von Oersted gemachten Entdeckung galt es, die Umkehrung des Phänomens, nämlich die Erzeugung von Strom durch Magnetismus herbeizuführen. Wie Faraday diese Aufgabe bewältigte, hat er im ersten Abschnitte seiner Experimental-Untersuchungen über die Elektrizität gelehrt84.
Die Veröffentlichung dieser berühmt gewordenen Untersuchungen begann im Jahre 1832. Das erste, was sie brachten, war der[Pg 72] Nachweis, daß sowohl ein stromdurchflossener Leiter als auch ein Magnet Ströme in einem benachbarten Draht hervorzurufen vermögen, daß diese Induktionsströme aber nur von augenblicklicher Dauer sind und manche Ähnlichkeit mit der elektrischen Welle besitzen, in welcher die Entladung einer Leydener Flasche besteht.
Faraday verfuhr folgendermaßen: Ein Kupferdraht A wurde um eine Walze von Holz gewickelt und zwischen seinen Windungen, indes durch Zwirnsfäden an jeder unmittelbaren Berührung gehindert, ein zweiter ähnlicher Draht B von gleicher Länge angebracht. Der Schraubendraht B wurde mit dem Galvanometer, der andere A mit einer galvanischen Batterie verbunden. Im Augenblicke der Verbindung des Drahtes A mit der Batterie trat eine plötzliche Wirkung auf das mit B verbundene Galvanometer ein. Eine ähnliche Wirkung zeigte sich, als diese Verbindung aufgehoben wurde. Solange indes der elektrische Strom durch den Schraubendraht A ging, konnte keine Spur einer Wirkung auf das mit B verbundene Galvanometer beobachtet werden. Ferner ergab sich, daß die Ablenkung der Galvanometernadel im Augenblick des Schließens von entgegengesetzter Richtung ist, wie die Ablenkung, die sie beim Öffnen der Kette erfährt.
Dieser Versuch wurde darauf in folgender Weise abgeändert. Der Kupferdraht A wurde in weiten Zickzack-Windungen auf der einen Seite eines Brettes ausgespannt und ebenso ein zweiter Draht B auf einem anderen Brette befestigt. Darauf wurde wieder der Draht B mit dem Galvanometer und der andere A mit der Voltaschen Batterie verbunden. Als nun das Brett mit dem Drahte dem zweiten mit dem Drahte B rasch genähert wurde, wich die Nadel ab, ebenso auch beim Wegziehen, indes nach der entgegengesetzten Seite. Geschah das Nähern und Entfernen der Bretter in Übereinstimmung mit den Schwingungen der Magnetnadel, so wurden diese Schwingungen sehr groß. Hörte man aber mit dem Hin- und Herführen des Drahtes auf, so kehrte die Nadel bald in ihre gewöhnliche Lage zurück.
Bei gegenseitiger Annäherung der Drähte war der in B hervorgerufene (induzierte) Strom von entgegengesetzter Richtung mit dem von der Batterie herrührenden (induzierenden) Strom in A. Bei der Entfernung der Drähte von einander hatten beide Ströme dagegen gleiche Richtung. Blieben die Drähte in unverändertem Abstande zu einander, so war kein induzierter Strom vorhanden.
Die weiteren Bemühungen Faradays liefen darauf hinaus, induzierte Ströme durch Elektromagnete und durch gewöhnliche[Pg 73] Magnete hervorzurufen. Den ersten Teil dieser Aufgabe löste er in folgender Weise: Ein schmiedeeiserner Ring wurde mit zwei Kupferdrähten umwickelt und zwar so, daß die Drahtlagen unter sich und von dem Eisen isoliert waren.
Die Spirale B wurde durch Kupferdrähte (Abb. 11) mit einem entfernten Galvanometer und die Spirale A mit einer galvanischen Batterie verbunden. Augenblicklich zeigte sich eine Wirkung auf das mit B verbundene Galvanometer, und zwar eine bei weitem stärkere als zuvor, obgleich bei dem vorigen Versuche eine zehnmal kräftigere Batterie jedoch ohne Mitwirkung von Eisen angewandt worden war. Blieb die Batterie geschlossen, so hörte die Wirkung auf, und die Nadel kehrte in ihre frühere Lage zurück. Beim Öffnen der Kette wurde die Nadel wieder stark abgelenkt und zwar in entgegengesetzter Richtung wie vorher.
Die Ablenkung beim Schließen zeigte immer einen induzierten Strom an, der dem der Batterie entgegengesetzt gerichtet war. Beim Öffnen der Kette hatte dagegen der induzierte Strom immer die gleiche Richtung mit dem der Batterie.
Es wurde nun folgende Einrichtung getroffen. Ein hohler Pappzylinder wurde mit zwei isolierten Schraubendrähten umwickelt. Die eine dieser Spiralen wurde mit dem Galvanometer, die andere mit der Batterie verbunden. Zunächst war die Wirkung auf das Galvanometer nur schwach; doch konnten mit dem induzierten Strome Stahlnadeln magnetisiert werden. Als aber ein Stab von weichem Eisen in die mit den Schraubendrähten umwickelte Pappröhre gesteckt war, wirkte der induzierte Strom mächtig auf das Galvanometer ein, auch besaß er das Vermögen, Stahl zu magnetisieren augenscheinlich in weit höherem Maße, als wenn kein Eisenstab zugegen gewesen wäre. Wurde statt des Eisenstabes ein gleicher Stab von Kupfer genommen, so wurde die Wirkung nicht verstärkt.
Ähnliche Wirkungen wie durch die Elektromagnete wurden auch durch gewöhnliche Magnetstäbe hervorgebracht. Es wurde nämlich eine auf einer Pappröhre befindliche Drahtspirale mit dem Galvanometer verbunden (Abb. 12.) Alsdann wurde in die Achse der Röhre ein Zylinder von weichem Eisen gesteckt. Darauf wurden[Pg 74] zwei Magnetstäbe mit den entgegengesetzten Polen verbunden und mit den anderen beiden Polen auf die Enden des Eisenzylinders gelegt, sodaß dieser zu einem Magneten wurde. Durch Fortnahme oder durch Umkehrung der Magnetstäbe konnte der Magnetismus des Eisenzylinders nach Belieben aufgehoben oder umgekehrt werden. Bei dem Auflegen der Magnetstäbe auf den Eisenzylinder wich die Nadel ab, bei fortdauernder Berührung kehrte sie in ihre anfängliche Lage zurück. Bei der Aufhebung der Berührung wurde sie abermals abgelenkt, aber nach entgegengesetzter Richtung wie vorher. Dann nahm sie wieder die ursprüngliche Lage an.
Noch einfacher gestaltete sich dieser Versuch bei folgender Anordnung. Der weiche Eisenstab wurde entfernt und statt dessen ein zylindrischer Magnetstab angewandt. Dieser Magnet wurde in die Achse der Drahtspirale eingestellt und, nachdem die Galvanometernadel zur Ruhe gekommen, plötzlich in die Pappröhre, um welche der Draht gewickelt war, hineingeschoben. Augenblicklich wich die Nadel ab und zwar in gleicher Richtung, als wenn der Magnet durch eins der vorhergehenden Verfahren erst gebildet worden wäre. Blieb der Magnet in der Drahtspule, so nahm die Nadel wieder ihre erste Stellung ein, wurde er herausgezogen, so wich sie nach entgegengesetzter Richtung ab.
Die Entdeckung dieses als Induktion bezeichneten Verhaltens führte Faraday zum Verständnis einer bis dahin völlig rätselhaften Erscheinung. Im Jahre 1824 hatte Arago beobachtet, daß eine über einer Kupferscheibe schwingende Magnetnadel auffallend schnell zur Ruhe kam. Versetzte man die Scheibe in Drehung, so wurde diese Bewegung auf den Magneten übertragen, während auch umgekehrt kräftige rotierende Magnete mehrere Pfund wiegende Kupferscheiben mit sich herumführten85. Blieben Magnet und Scheibe in Ruhe, so war nicht das Geringste von einer zwischen beiden stattfindenden Anziehung oder Abstoßung zu bemerken. Ähnliche Beobachtungen hatte auch der deutsche Physiker Seebeck[Pg 75] gemacht. Jetzt war die Zeit für die Erklärung dieses sonderbaren Verhaltens gekommen. Faraday kam auf die Vermutung, daß es sich hierbei um Induktionsströme handeln könne. Um diese Ansicht auf ihre Richtigkeit zu prüfen, ließ er eine Kupferscheibe von zwölf Zoll Durchmesser und etwa einem fünftel Zoll Dicke zwischen den Polen eines starken Magneten rotieren (Abb. 13). Auf dem Rande der Scheibe und an ihrer aus Metall bestehenden Achse befanden sich Schleifkontakte, die mit dem Galvanometer in Verbindung standen. Sobald die Scheibe gedreht wurde, zeigte eine Ablenkung der Galvanometernadel, daß die Scheibe während der Bewegung von induzierten Strömen durchflossen wird. Bei rascher Umdrehung betrug die Ablenkung der Nadel 90°. Wurde alles Übrige unverändert gelassen, die Scheibe jedoch in umgekehrter Richtung gedreht, so wich die Nadel mit gleicher Kraft wie vorher, jedoch in umgekehrter Richtung, ab. Die zuerst unverständliche Wechselwirkung zwischen der bewegten Kupferscheibe und dem Magneten ließ sich jetzt aus den von Ampère entdeckten Gesetzen der Elektrodynamik ableiten.
An die Entdeckung der magnetischen und der galvanischen Induktion mußte sich die Frage anschließen, ob nicht auch die Reibungselektrizität Induktionswirkungen hervorzurufen vermöge. Diese Frage wurde nicht durch Faraday sondern durch andere Forscher86 und zwar in bejahendem Sinne beantwortet. Dem entscheidenden Versuch lag folgende Anordnung zugrunde. Der Entladungsstrom einer Batterie von Leydener Flaschen wurde durch eine Drahtspirale geführt. Diese Spirale befand sich in einem Glaszylinder, um den man einen zweiten Draht gewickelt hatte. Verband man die Enden dieses zweiten Drahtes mit dem elektrischen[Pg 76] Luftthermometer (Abb. 14), so machte sich bei jeder Entladung der Leydener Batterie eine Wärmewirkung bemerkbar. Der induzierte Strom ließ sich auch dadurch nachweisen, daß man den zweiten Draht in genügend weiter Entfernung von den beiden Spiralen um eine Stahlnadel leitete. Letztere wurde beim Entladen der Leydener Batterie magnetisiert.
Gleich nach der Beendigung der Versuche, die zur Entdeckung der magnetischen Induktion geführt hatten, legte Faraday sich die Frage vor, ob nicht die Erde durch ihren Magnetismus gleiche Wirkungen auf bewegte Leiter wie ein Magnet hervorzubringen vermöge. Der Nachweis, daß dies der Fall ist, erfolgte noch im Jahre 1832. Dieser Nachweis erregte durch die große Ausdehnung, welche das Gebiet der elektrischen Erscheinungen dadurch erfuhr, ein Aufsehen, wie es selten eine wissenschaftliche Entdeckung hervorgerufen hat. Berücksichtigt man nämlich die Allgegenwart des Erdmagnetismus, so gelangt man durch den von Faraday geführten Nachweis zu dem auffallenden Schluß, daß kein Stück Metall in Berührung mit anderen ruhenden oder in anderer Richtung bewegten Metallstücken bewegt werden kann, ohne daß[Pg 77] elektrische Ströme auftreten. »Wahrscheinlich«, fügt Faraday hinzu, »finden sich an den Dampf- und an anderen Maschinen magnetelektrische Kombinationen, welche Wirkungen hervorbringen, die niemals bemerkt oder wenigstens nie verstanden worden sind«. Auch darauf wies Faraday hin, daß da, wo Wasser fließt, elektrische Ströme erzeugt werden müssen. Es sei nicht unwahrscheinlich, meint er, daß fließendes Wasser von großer Ausdehnung wie der Golfstrom vermöge der durch den Erdmagnetismus erzeugten magnetelektrischen Induktionsströme einen merklichen Einfluß auf die Gestalt der magnetischen Abweichungslinien ausübe.
Sehen wir nun, auf welche Weise Faraday der Nachweis der induzierenden Wirkung des Erdmagnetismus auf bewegte leitungsfähige Massen gelang. Ein spiralig gewundener Kupferdraht wurde durch lange Drähte mit einem Galvanometer verbunden. In die Höhlung der Spirale steckte Faraday einen Eisenzylinder, dem durch Ausglühen jede Spur von Magnetismus genommen war. Der Draht mit dem Zylinder wurde in die Richtung der Inklinationsnadel gebracht. Drehte man darauf die Spule mit dem Zylinder um 180°, so geriet die Galvanometernadel in Schwingungen, welche durch mehrmalige Wiederholung der Umkehrung sehr verstärkt werden konnten. Wurde der Eisenstab entfernt und der Schraubendraht allein umgekehrt, so zeigte sich keine Wirkung. Der beim ersten Versuche angezeigte Strom war somit eine Folge der induzierenden Kraft des Erdmagnetismus, durch den der Eisenzylinder zu einem Magneten geworden war. Drehte man den Zylinder um 180°, so fand auch eine Polumkehrung statt. Der Versuch entsprach somit ganz der durch Abbildung 12 erläuterten Elektrizitätserregung durch Magnetismus.
Wurde der Schraubendraht allein in die Richtung der Inklinationsnadel gebracht und ein weicher Eisenzylinder hineingesteckt und herausgezogen, so gab die Galvanometernadel jedesmal einen Ausschlag. Wurde der Schraubendraht dagegen rechtwinklig zur Richtung der Inklinationsnadel eingestellt, so brachte das Hineinstecken und Herausziehen des Eisenstabes keine Wirkung auf das Galvanometer hervor. Der zweite dieser beiden zuletzt erwähnten Versuche lieferte somit den deutlichen Beweis, daß die beim ersten Versuch auftretende Elektrizität nur auf die Wirkung des Erdmagnetismus zurückgeführt werden konnte.
Diese günstigen Ergebnisse ließen erhoffen, die elektrische Induktion durch Erdmagnetismus direkt, d. h. ohne Vermittlung[Pg 78] eines zunächst von der Erde magnetisierten Eisenstabes hervorrufen zu können. Folgende Versuchsanordnung führte Faraday zum Ziel. Ein etwas dickerer Kupferdraht wurde mit seinen Enden an den Enden der Galvanometerdrähte befestigt und dann zu einem Rechteck gebogen. Wie die Abbildung 15 zeigt, lag das Galvanometer in der Mitte der in der Richtung des magnetischen Meridians verlaufenden Längsseite des Rechtecks. Die zweite Längsseite lag westlich vom Galvanometer. Wurde darauf das Rechteck, das zusammen mit dem Galvanometer einen geschlossenen Stromkreis bildete, um die mit dem Galvanometer verbundene Seite rasch gedreht, so daß die anfangs westlich vom Galvanometer liegende Rechteckseite östlich zu liegen kam, so ging ein Strom von Nord nach Süd durch den ruhenden Drahtabschnitt. Wurde das Rechteck in die ursprüngliche Lage zurückgebracht, so zeigte die Nadel an, daß der Stromkreis in entgegengesetzter Richtung von Elektrizität durchflossen wurde, die nichts anderes als die induzierende Wirkung des Erdmagnetismus zur Ursache haben konnte.
Hatte Faraday Magnetinduktionsströme dadurch erhalten, daß er eine Kupferscheibe zwischen den Polen eines Stahlmagneten rotieren ließ, so lag nach dem Erfolg der soeben geschilderten Bemühungen der Gedanke nahe, auch bei jenem Versuche den Erdmagnetismus an die Stelle der von dem künstlichen Magneten ausgehenden Wirkung treten zu lassen. Die Scheibe wurde so hergerichtet, daß einer der Galvanometerdrähte mit der Achse, der andere vermittelst eines Kollektors mit dem Rande in Verbindung stand. Befand sich die Scheibe in einer mit der Inklinationsrichtung zusammenfallenden Ebene, so brachte die Drehung der Scheibe keine Wirkung auf das Galvanometer hervor. Wurde sie nur um wenige Grade gegen die Inklinationslinie geneigt, so zeigte die Nadel einen induzierten Strom an. Betrug der Winkel, den die Scheibe mit der Inklinationsnadel machte, 90 Grad, so besaß die erzeugte Elektrizität für eine gegebene Geschwindigkeit der Umdrehung ihr Maximum.
Auf solche Weise wurde die rotierende Kupferscheibe zu einer neuen Elektrisiermaschine, die zwar weit schwächer wirkte[Pg 79] wie die gewöhnliche Maschine, dafür aber einen konstanten Strom lieferte. Daß dieser durch den Erdmagnetismus erzeugte elektrische Strom imstande ist, das Nervensystem zu beeinflussen, wies schon Faraday nach. Durch andere Physiker87 wurde dieser Strom unter Anwendung mehrerer mit Eisenkernen versehener Kupferspiralen in solchem Maße verstärkt, daß dadurch Wasser zersetzt und kräftige Erschütterungen des Organismus hervorgerufen werden konnten.
Die grundlegenden Untersuchungen über die induzierende Wirkung der Elektrizität und des Magnetismus fanden ihren Abschluß in Faradays Entdeckung der Selbstinduktion. Es war den Physikern nicht entgangen, daß der Funke, den man bei der Unterbrechung eines galvanischen Stromes erhält, nur schwach ist, wenn der Stromkreis aus einem kurzen Draht besteht. Besitzt dagegen der Schließungsdraht eine bedeutende Länge, so nimmt der Funke an Stärke zu. Ähnlich verhält es sich mit den physiologischen Wirkungen. So wurde Faraday auf die zunächst ganz rätselhafte Tatsache aufmerksam, daß man keinen elektrischen Schlag erhält, wenn man die beiden Platten einer Batterie durch einen kurzen Draht verbindet, während man bei Anwendung eines längeren, um einen Elektromagneten geschlungenen Drahtes beim jedesmaligen Öffnen einen kräftigen Schlag empfindet. Rätselhaft war die Erscheinung besonders deshalb, weil doch ein längerer Draht durch seinen Widerstand den Strom schwächt, so daß man vor dem Paradoxon stand, daß man von dem starken Strom einen schwachen Funken und Schlag, von dem schwachen Strom dagegen kräftigere Wirkungen erhielt.
In der neunten Reihe seiner Experimentaluntersuchungen, die er im Jahre 1835 veröffentlichte, lieferte Faraday den Nachweis, daß diese Erscheinung als ein besonderer Fall der von ihm entdeckten Induktionsphänomene aufzufassen ist. Faraday bediente sich einer Versuchsanordnung, welche durch die beistehende Abbildung verdeutlicht wird. Z und C sind die Zink- und die Kupferplatte einer Batterie. Von diesen Platten gehen Drähte nach zwei mit Quecksilber gefüllten Näpfchen G und E, in denen der Kontakt vollzogen und unterbrochen wird. Die Berührung erfolgte zwischen Queck[Pg 80]silber und Kupfer, weil in diesem Falle der Funken bedeutend glänzender ist. A und B sind die Enden des langen, durch die Punktierung angedeuteten Schraubendrahtes D. N und P sind Querdrähte für einen Zweigstrom. In letzteren wird bei x ein Galvanometer, ein Platindraht oder ein Apparat für Elektrolyse eingeschaltet.
Ist der Stromkreis geschlossen, so geht durch die Zweigleitung von P nach N ein Zweigstrom, welcher die Nadel abzulenken strebt. Diese Ablenkung verhinderte Faraday durch einen kleinen Stift, an den sich die Nadel anlegte, sodaß sie in ihrer natürlichen Lage blieb, die sie vor der Einwirkung des Stromes besaß. Wurde darauf der Strom bei einem der Quecksilbernäpfchen G oder E unterbrochen, so wich die Nadel in dem Augenblick stark nach der entgegengesetzten Seite ab. Daß die Ablenkung entgegengesetzt der Ablenkung durch den primären Strom erfolgte, lieferte den Beweis, daß durch die Zweigleitung im Momente der Unterbrechung ein Strom geht, dessen Richtung derjenigen des primären Stromes entgegengesetzt ist. Faraday nannte diesen im Momente der Unterbrechung auftretenden Strom »Extrastrom«, ein Name, der sich in der Wissenschaft erhalten hat.
Den Extrastrom wies Faraday auch durch das Auftreten von Wärme und von chemischer Aktion nach. Er brachte an die Stelle des Galvanometers einen dünnen Platindraht, an dem bei geschlossener Kette keine Wirkungen auftraten. Wurde dann bei G oder E der primäre Strom unterbrochen, so geriet der Platindraht ins Glühen, bei geringer Länge schmolz er sogar. Dieser Versuch ergab jedoch nichts über die Richtung des Extrastromes. Eine neue Wirkung dieses Stromes, die zugleich seine Richtung erkennen ließ, konnte Faraday durch die Einschaltung eines Zersetzungsapparates nachweisen.
Bei x wurde in die Zweigleitung Jodkaliumstärkepapier gebracht. War der primäre Strom geschlossen, so strömte die gesamte Elektrizität durch A D B und es fand bei x keine chemische Zersetzung statt. Sobald jedoch bei G oder E der Kontakt aufgehoben wurde, trat bei F Zersetzung des Jodkaliums ein. Das freigewordene Jod erschien am Drahte N und rief dort Blaufärbung der Stärke hervor, ein Beweis, daß der im Momente der Unterbrechung des Batteriestroms durch die Querleitung gehende Strom eine dem primären Strome entgegengesetzte Richtung besitzt. Da an der Unterbrechungsstelle bei E oder G jedesmal[Pg 81] ein heller Funken zu beobachten ist, so folgt daraus, daß nur ein Teil des Extrastroms bei x durch den Zweigdraht geht.
Die Entstehung des Extrastroms erklärte Faraday in folgender Weise: Wenn ein Strom, welcher durch die Spirale D fließt, unterbrochen wird, so wird er in sämtlichen Windungen rasch abnehmen. Zieht man nun zunächst eine einzelne Windung der Spirale in Betracht, so wird der in dieser Windung verschwindende Strom in den benachbarten Windungen einen gleichgerichteten Strom hervorrufen. Diese Erscheinung wiederholt sich in sämtlichen Teilen der Spirale. Infolgedessen summieren sich die erzeugten Induktionsströme. Da letztere ferner dem primären Strome gleichgerichtet sind, so müssen sie bei plötzlicher Unterbrechung des letzteren in der Zweigleitung in einer Richtung fließen, die derjenigen, welche der primäre Strom besaß, entgegengesetzt ist.
Faraday ging bei der Untersuchung des Extrastroms oder der Selbstinduktion noch einen Schritt weiter. Da ein elektrischer Strom auch im Augenblicke seines Beginns induzierend wirkt, so muß auch, wenn der Stromkreis geschlossen wird, ein Extrastrom auftreten. Und zwar muß er, da seine Richtung der vorigen entgegengesetzt sein wird, den primären Strom schwächen. Diese Wirkung muß nach Faradays Ausdruck »ein dem Umgekehrten von einem Schlag oder Funken entsprechendes Ergebnis hervorbringen«. Es war nicht leicht, die Mittel zu ersinnen, die zum Erkennen solcher negativen Resultate sich eigneten. Trotzdem gelang es Faraday sowohl durch elektrolytische als auch durch Galvanometerversuche den bei der Vollziehung des Kontakts auftretenden Extrastrom zu erkennen. So wurde, um die zweite Art des Nachweises zu führen, bei x (Abb. 16) ein Galvanometer eingeschaltet, während der Kontakt bei G und E vorhanden, der primäre Strom also geschlossen war. Die Nadel erfuhr dadurch eine Ablenkung und wurde jetzt durch einen Stift gehemmt, so daß sie wohl weiter ausschlagen, aber nicht in ihre alte Lage zurückkehren konnte. Bei Unterbrechung des Kontaktes war natürlich keine Wirkung sichtbar. Wurde der primäre Strom jetzt wieder geschlossen, so wich die Nadel von dem Hemmstift ab, so daß sie also noch weiter aus ihrer ursprünglichen Lage entfernt wurde, als es durch den konstanten Strom geschehen war. Durch diesen zeitweisen Überschuß des Stromes in der Querleitung war somit die vorübergehende Schwächung, welche die Elektrizität im ersten Momente, beim Durchlaufen des Schraubendrahts in D erfuhr, nachgewiesen.
Faradays Untersuchungen betrafen nicht immer neue, von ihm erschlossene Forschungsgebiete. Wir sehen ihn auch bemüht, tiefer in das Wesen längst bekannter Erscheinungen einzudringen. So sind die XII. und die XIII. Reihe seiner Experimentaluntersuchungen dem Leitungsvermögen und der Entladung gewidmet. Zunächst betont Faraday, daß es zwischen Leitern und Nichtleitern keinen wesentlichen Unterschied gibt. Beide Ausdrücke bezeichnen »nur äußerste Grade eines gemeinsamen Zustandes.« Betrachte man das schwache Eindringen der Elektrizität in Schwefel und Schellack als Folgen ihres geringen Leitungsvermögens, so könne man andererseits den Widerstand, den Metalldrähte dem Durchgang der Elektrizität darbieten, als Isolationsvermögen ansehen. Man habe demnach weder bei dem einen noch bei dem anderen Extrem, weder bei der Isolation, noch bei der Leitung, den Fall der Vollkommenheit.
Unter Berücksichtigung dieser Tatsache gelang es Faraday, den »elektrischen Rückstand« zu erklären. Man versteht darunter die schon im 18. Jahrhundert88 bekannt gewordene Erscheinung, daß[Pg 83] eine Leydener Flasche, selbst geraume Zeit nachdem sie entladen ist, wieder eine Entladung gibt, ja daß man die Entladung sogar mehrere Male wiederholen kann. Faraday erklärte den Rückstand daraus, daß die Elektrizität von den Belegungen aus in die isolierende Masse, die nur ein geringeres Leitungsvermögen besitzt, langsam eindringt. Nach der Entladung wandere die Elektrizität ebenso allmählich aus dem Isolator in die Belege, wodurch eine neue Entladung möglich sei89.
Sehr eingehend beschäftigt sich Faraday auch mit der »zerreißenden Entladung«, worunter er die Entladung in Gestalt von Funken und Lichtbüscheln versteht. Daß die elektrische Schlagweite bei gleichem Druck und gleicher Temperatur für verschiedene Gase verschieden groß ist, beweist er durch folgenden sinnreichen Versuch, bei dem der Funken in der Luft oder innerhalb eines mit einem beliebigen Gase gefüllten Glasgefäßes überspringen konnte. a ist dieses Glasgefäß. Am Boden des letzteren befindet sich eine Messingkugel l und darüber eine kleinere Messingkugel an einem verschiebbaren Stabe d. Außerhalb des Gefäßes befinden sich zwei gleich große Messingkugeln L und S an isolierenden Stützen (h und i), deren Abstand ebenfalls geändert werden kann. n ist das Ende eines Konduktors, der durch eine Elektrisiermaschine positiv oder negativ geladen wird. Der Konduktor ist durch die Drähte o und p mit den kleineren Kugeln verbunden. Der Draht qr stellt die leitende Verbindung zwischen den größeren Kugeln und der Erde her.
Die Entladung konnte somit zwischen s und l oder zwischen S und L stattfinden. Der Abstand v und u wurde verändert, bis der Funke zwischen beiden Kugelpaaren gleich oft übersprang. In diesem Fall konnte man annehmen, daß der Widerstand der Luft und des in der Glocke befindlichen Gases gleich groß ist. Wählte Faraday z. B. im einen Falle Wasserstoff, im anderen Chlorwasserstoff, und war die Schlagweite in beiden Gasen 1,6 cm, so betrug sie für das in der Luft befindliche Kugelpaar 0,99 cm und 3,5 cm. Die Schlagweite war somit in Wasserstoff im Verhältnis 1,6 : 0,99 größer, im Chlorwasserstoff im Verhältnis 3,5 : 1,6 kleiner als in der Luft.
Mit zunehmender Dichtigkeit des hindernden Gases nahm die Schlagweite im allgemeinen ab. Auch darauf wies Faraday hin, daß die Farbe des Funkens und der Büschelentladung von dem Gase, in dem sie sich bilden, abhängt. Sie ist in der Luft bläulichweiß, in Wasserstoff rot, in Kohlendioxyd grünlich usw. Außerdem ist die Natur der Metalle, zwischen welchen die Entladung stattfindet, von großem Einfluß auf die Farbe des Funkens. Zwischen Funken- und Büschelentladung finden ferner alle Übergänge statt.
Faradays weitere Bemühungen liefen darauf hinaus, alle Zweifel zu beseitigen, ob man es bei den auf so verschiedene Weise erzeugten Elektrizitätsarten auch stets mit ein und derselben Naturkraft zu tun habe. Indem er ihre sämtlichen Wirkungen zusammenstellte und verglich, gelangte er zur Überzeugung, »daß die Elektrizität, aus welcher Quelle sie auch entsprungen sei, identisch ist in ihrer Natur90.«
Faraday konnte, als er im Jahre 1833 die Frage nach der Identität der Elektrizitäten verschiedenen Ursprungs aufwarf, fünf Elektrizitätsarten unterscheiden, nämlich die galvanische Elektrizität, die Reibungselektrizität, die Magneto-, Thermo- und die tierische Elektrizität. In Betracht gezogen wurden für sämtliche Arten die physiologische Wirkung, die Ablenkung der Magnetnadel, das Magnetisieren, die Erzeugung von Funken, die Wärmeerregung, die elektrochemische Wirkung usw.
Wie schon hervorgehoben, gelangte Faraday zu dem Ergebnis, daß die fünf aufgeführten Elektrizitätsarten nicht in ihrem Wesen, sondern nur dem Grade nach verschieden sind. »Sie variieren«, fügt er hinzu, »nach Maßgabe der veränderlichen Umstände nach Quantität und Intensität.«
Insbesondere bemühte sich Faraday, nachzuweisen, daß die Reibungselektrizität die gleiche chemische Wirkung hervorruft wie die galvanische. Bei den Versuchen91, die Faraday für diesen Zweck ersann, wollen wir noch etwas verweilen.
Auf einer Glasplatte brachte er zwei Stanniolstreifen a und b an. Die Platte a wurde durch den Draht c mit dem positiven[Pg 85] Konduktor der Elektrisiermaschine, die Platte b durch den Draht g mit einer Ableitung für die Elektrizität verbunden.
Auf den Stanniolplatten ruhten zwei winklig gebogene, verschiebbare Drähte, zwischen deren Enden p und n Faraday die zu untersuchenden Substanzen brachte. Wurde z. B. ein Tropfen Kupfervitriollösung in die Mitte der Glasplatte zwischen p und n gebracht und die Elektrisiermaschine in Bewegung gesetzt, so zeigte sich das Drahtende p nach etwa zwanzig Umdrehungen ganz mit Kupfer überzogen.
Brachte man durch Indigo blau gefärbte Salzsäure an die Stelle der Kupferlösung und wiederholte den Versuch, so zeigte sich schon bei einer einzigen Umdrehung der Maschine um p die bleichende Wirkung des durch die Zerlegung der Salzsäure entwickelten Chlors.
Darauf wurde Jodkaliumstärkekleister auf die Glasplatte zwischen p und n gebracht. Beim Drehen der Maschine zeigte sich bei p eine blaue Färbung, ein Beweis, daß dort Jod entwickelt wurde, das bekanntlich im freien Zustande Stärkekleister blau färbt.
Endlich wurde noch die Zersetzung von Glaubersalz durch die Reibungselektrizität auf folgende Weise dargetan. Brachte man einen mit einer Lösung von Glaubersalz getränkten Streifen Kurkumapapier zwischen p und n, so wurde das Papier nach einigen Umdrehungen durch das entstandene Alkali braunrot gefärbt.
Benutzt man die galvanische Elektrizität, so verlaufen die geschilderten Zersetzungen in derselben Weise.
Daß ein durch magnetelektrische Induktion erregter Strom imstande ist, ebenso wie die galvanische und wie die Reibungselektrizität einen Draht zu erhitzen, hatte Faraday schon 1832 dargetan. Pixii lieferte den Nachweis, daß durch Magneto-Elektrizität Wasser in Wasserstoff und Sauerstoff zerlegt werden kann. Ferner[Pg 86] konstruierte Pixii92 die erste, schon sehr kräftige Magnetinduktionsmaschine (s. Abb. 19). Sie besaß die Einrichtung, daß der Magnet um eine den Schenkeln parallele Achse rotierte. Die Induktionsspirale umschloß ein hufeisenförmiges Eisenstück und blieb in Ruhe, während die Pole des rotierenden Magneten sich den Schenkeln des umwickelten Hufeisens abwechselnd näherten und sich davon entfernten.
Unter dem Magneten befand sich ein Drehwerk und, wie die nebenstehende Abbildung zeigt, ein Kommutator, welcher die Aufgabe hatte, die den Spulen entnommenen Ströme mittelst Schleiffedern in einen gleichgerichteten Strom zu verwandeln. Dieser Kommutator wurde von Ampère hinzugefügt. Stöhrer gab der Maschine die noch heute gebräuchliche Einrichtung, indem er den Magneten befestigte und die mit Eisenkernen versehenen Spulen sich drehen ließ.
Die thermoelektrischen Ströme besaßen zu der Zeit, als Faraday die Elektrizitätsarten verglich, noch nicht den genügenden Grad von Intensität, um alle Wirkungen der galvanischen und der Reibungselektrizität hervorzurufen. Faraday mußte sich hier auf die Untersuchung der magnetischen und der physiologischen Wirkungen beschränken. Dagegen waren bezüglich der tierischen Elektrizität außer der magnetischen und der physiologischen die chemische Wirkung bekannt und Funkenbildung von einigen Seiten beobachtet worden.
Durch den Vergleich der elektrischen Wirkungen wurde Faradays Aufmerksamkeit besonders auf die chemische Wirkung der Elektrizität gelenkt. Zunächst schuf er für dieses Gebiet die noch heute gebräuchlichen Benennungen93. Die Ein- und Austrittsstelle des Stromes nannte er Elektroden; der zu zersetzende Körper wurde Elektrolyt, der Vorgang selbst Elektrolyse, und die Produkte der Zersetzung wurden Ionen (d. h. die Wandernden) genannt. Das[Pg 87] Anion, z. B. der bei der Zerlegung des Wassers auftretende Sauerstoff, wandert an die Anode, das ist die Eintrittsstelle des Stromes, während das Kation, in dem angezogenen Beispiel der Wasserstoff, an die Kathode oder Austrittsstelle geht. Ferner hat Faraday die beiden Arten der Leitung, die metallische und die elektrolytische, zum ersten Male scharf unterschieden.
Zunächst wandte Faraday sich in der VII. Reihe seiner Experimentaluntersuchungen94, durch welche er die Grundlage für die heutigen Lehren geschaffen hat, den allgemeinen Bedingungen der elektrochemischen Zersetzung zu.
Es ergab sich, daß die zersetzende Wirkung des Stromes der Elektrizitätsmenge proportional ist und nicht etwa von der Konzentration des Elektrolyten oder von der Größe der Elektroden abhängt95. »Die zersetzende Wirkung des Stromes« führt Faraday näher aus, »ist konstant für eine konstante Menge Elektrizität, ungeachtet der größten Verschiedenheit in deren Abstammung, der Intensität, der Größe der Elektroden, der Natur der durchströmten Leiter usw.«
Auf dieses Gesetz gründete Faraday einen Apparat, welcher die hindurchgegangene Elektrizitätsmenge zu messen gestattet. Durch die Seiten einer oben geschlossenen, graduierten Röhre (siehe Abb. 20) werden zwei in Platten endigende Platindrähte geführt und eingeschmolzen. Die so vorbereitete Meßröhre wird in eine der Mündungen einer zweihalsigen Flasche gesteckt. Letztere wird etwa zur Hälfte mit Wasser gefüllt, das einen Zusatz von Schwefelsäure erhält. Durch entsprechendes Neigen wird die Röhre mit dieser Flüssigkeit gefüllt. Leitet man darauf einen elektrischen Strom durch das Instrument, so sammelt sich das an den Platinplatten entwickelte Gas in dem oberen Teile der Röhre und kann hier gemessen werden.
Schon Davy, dem Begründer der Elektrolyse, war es aufgefallen, daß neben der primären Zersetzung einer chemischen Verbindung noch sekundäre Erscheinungen auftreten, die darin be[Pg 88]stehen, daß die Ionen im Augenblicke des Freiwerdens mit den Elektroden, dem Elektrolyten oder auch dem Lösungsmittel chemische Verbindungen eingehen. Auch diesem Vorgange widmete Faraday eine auf zahlreiche Substanzen sich erstreckende Untersuchung96, aus der einige Beispiele hier Platz finden mögen. Bei der Zersetzung von Salzsäure unter Anwendung von Platinelektroden verband sich das Chlor zum Teil mit dem Platin, ein anderer Teil wurde gelöst. Elektrolysierte Faraday Chlornatrium in wässeriger Lösung, so wurde an der positiven Elektrode Chlor, an der negativen dagegen Wasserstoff und Natron abgeschieden. Wasserstoff und Natron hatten sich durch die Einwirkung des im primären Vorgang abgeschiedenen Natriums auf Wasser gebildet. Ähnlich wie die Chlorverbindungen verhielten sich Jodwasserstoff und die Jodide.
Indes auch bei geschmolzenen Salzen blieben sekundäre Wirkungen nicht aus. Bei der Zerlegung von Zinnchlorür z. B. wirkte das an der Anode sich ausscheidende Chlor auf das dort befindliche Chlorür und verwandelte es in Zinnchlorid, während an der Kathode metallisches Zinn ausgeschieden wurde.
Um Vergleiche über die zersetzende Wirkung des elektrischen Stromes anzustellen, brachte Faraday seinen von ihm als Voltaelektrometer oder kürzer als Voltameter bezeichneten Apparat in denselben Stromkreis, in dem sich der zu untersuchende Elektrolyt, z. B. Zinnchlorür (SnCl2), befand. Der Platindraht P tauchte in das geschmolzene Chlorür und wurde (s. Abb. 21) mit dem negativen, das Voltameter N dagegen mit dem positiven Pole einer galvanischen Batterie verbunden. Nachdem sich eine genügende[Pg 89] Menge Gas in N gesammelt hatte, wurde gemessen und das an der Kathode ausgeschiedene Zinn gewogen. In dem von Faraday mitgeteilten Beispiele98 hatten sich 3,85 Kubikzoll (0,49742 Gran) Knallgas gebildet, während die negative Elektrode eine von dem ausgeschiedenen Zinn herrührende Gewichtszunahme von 3,2 Gran aufwies. Aus der Öffnung des erhitzten Röhrchens entwichen die an der Anode infolge des sekundären Vorgangs entstehenden Dämpfe von Zinnchlorid. Dem Gewicht des Wasserstoffs (1/9 von 0,49742) entsprach die 57,9fache Menge Zinn, eine Zahl, die mit dem Äquivalentgewicht des Zinns nahezu übereinstimmt. Dieser und zahlreiche ähnliche Versuche ergaben als elektrolytisches Grundgesetz, daß die Abscheidung der Ionen durch ein- und denselben Strom stets im Verhältnis der chemischen Äquivalente stattfindet.
Durch seine Arbeit über die zersetzende Wirkung der galvanischen Säule gelangte Faraday, noch bevor Robert Mayer das Gesetz von der Erhaltung der Energie aussprach, zu Anschauungen, die sich mit diesem allumfassenden Prinzip vollkommen decken. »Die Kontakttheorie«, so lauten seine Worte99, »nimmt an, daß ohne irgend eine Änderung der wirkenden Substanz und ohne den Verbrauch von irgend einer Triebkraft ein Strom gebildet werden könne, der imstande ist, einen mächtigen Widerstand zu überwinden und Körper zu zerlegen. Es wäre dies in der Tat die Erschaffung einer Kraft aus nichts. Es gibt mancherlei Vorgänge, bei denen die Erscheinungsform sich in der Weise ändert, daß eine Umwandlung einer Kraft in eine andere stattfindet. Auf diese Weise können wir chemische Kräfte in elektrischen Strom oder diesen in chemische Kraft verwandeln. Die schönen Versuche von Seebeck100 beweisen den Übergang von Wärme in Elektrizität, und andere von Oerstedt101 und mir angestellte Experimente die gegenseitige Verwandlungsfähigkeit von Elektrizität und Magnetismus. Allein in keinem Falle, nicht einmal bei den elektrischen Fischen, findet eine Erschaffung oder eine Erzeugung von Kraft statt, ohne einen entsprechenden Verbrauch von etwas anderem.«[Pg 90] Diese Worte lassen erkennen, daß große wissenschaftliche Wahrheiten, noch ehe sie zum vollen Durchbruch gelangen, oft mehr oder weniger deutlich in dem allgemeinen Bewußtsein der Zeit schlummern.
Zugleich ersehen wir, welche Stellung Faraday zu der älteren, besonders von den italienischen und den deutschen Physikern vertretenen Kontakttheorie einnahm. Volta hatte geschwankt und als Quelle der galvanischen Elektrizität bald den Kontakt der Metalle, bald ihre Berührung mit den Leitern zweiter Klasse angenommen. Zamboni, der Erfinder der Trockensäule, hielt die gegenseitige Berührung der Metalle und nicht die Berührung der Metalle mit den Flüssigkeiten für die Ursache des Stromes. Faraday dagegen hatte durch den ganzen Gang seiner wissenschaftlichen Entwicklung gelernt, mehr auf die chemischen Vorgänge zu achten. Er gelangte zu der Überzeugung: »Wo keine chemische Aktion ist, da ist auch kein Strom.«
Einen Bundesgenossen in seinem Kampfe gegen die Kontakttheorie fand Faraday in dem Franzosen de la Rive102. Nach de la Rive ist die chemische Affinität die Ursache des galvanischen Stromes. Außerdem seien nur mechanische und thermische Wirkungen imstande, Elektrizität zu erzeugen. Seine Lehre faßte de la Rive in folgendem Satz zusammen: »Werden zwei verschiedenartige Körper in eine Flüssigkeit oder in ein Glas gebracht, das auf beide oder auch nur auf einen dieser Körper chemisch einwirkt, so kommt Elektrizitätserregung zustande. Dabei wird der chemisch angegriffene Körper negativ, der angreifende positiv elektrisch«.
Gleich de la Rive geht Faraday in der 16. Reihe seiner Experimentaluntersuchungen, die er gleich der 17. ausschließlich der vorliegenden Frage widmet, von der Ansicht aus, daß der bloße Kontakt nicht zur Erregung des Stromes beitrage, abgesehen davon, daß er die chemische Aktion einleite.
Faraday war eben schon von dem Gesetze der Erhaltung der Energie beherrscht, noch bevor es zum klaren Ausdruck gekommen und zum Allgemeingut der Physik geworden war. Dafür zeugt die Fassung, die Faraday der chemischen Theorie gibt. An dem Orte der Elektrizitätsentwicklung wirken nach ihm die sich berührenden Teilchen chemisch aufeinander ein. Der Betrag[Pg 91] der erzeugten Stromkraft sei ein Äquivalent der angewandten chemischen Kraft. In keinem Falle könne ein elektrischer Strom erzeugt werden ohne den Verbrauch eines gleichen Betrages chemischer Kraft und »endend mit einem gegebenen Betrag von chemischer Veränderung«.
Vom Standpunkte de la Rives und Faradays ließ sich der Voltasche Fundamentalversuch nur erklären durch die Bildung einer oberflächlichen Oxydschicht unter dem Einfluß der feuchten atmosphärischen Luft. Und wirklich haben spätere Versuche bewiesen, daß die Spannung an der Kontaktstelle um so geringer ist, je mehr die Metalle gegen Oxydation geschützt sind. Andererseits reichte die ausschließlich chemische Theorie vom galvanischen Strom doch nicht zur Erklärung aller in Betracht kommenden Erscheinungen aus. Eine vermittelnde Theorie stellte im Jahre 1844 Schönbein auf. Während de la Rive und Faraday den Ursprung der Elektrizität in tatsächlichen und sichtbaren chemischen Vorgängen erblickten, behauptete Schönbein, schon die bloße Tendenz zweier Körper, sich chemisch zu verbinden, störe deren elektrisches Gleichgewicht, selbst wenn keine wirkliche Verbindung erfolge. Doch sei ein Strom, der infolge der wirklichen Verbindung zweier Stoffe entstehe, bei weitem stärker als derjenige, der nur durch die Tendenz nach Vereinigung hervorgerufen werde. Als ein Beispiel betrachtet Schönbein das Verhalten von Zink und Kupfer zu verdünnter Schwefelsäure. Das Zink sei »sauerstoffgierig«. Der Sauerstoff äußere schon eine Anziehung zum Zink, bevor es zu einer Verbindung komme. Dadurch werde noch nicht eine Zersetzung des Wassers hervorgerufen, sondern zunächst eine Richtung seiner Moleküle. Dies geschehe in der Art, daß sich der Sauerstoff jeder Wassermolekel dem Zink zuwende. Dieser Störung des chemischen Gleichgewichtes laufe eine Störung des elektrischen Gleichgewichts parallel, weil das Sauerstoffatom gleichzeitig negativ, das Wasserstoffatom positiv elektrisch werde.
Schönbeins Anschauungen bilden einen Übergang zu den heute über das Zustandekommen des galvanischen Stromes geltenden Anschauungen, nach welchen eine elektrische Polarität der Wasserteilchen sich nicht erst bildet, sondern schon für sich besteht. Wird, um Schönbeins Beispiel zu Ende zu führen, in die Flüssigkeit eine zweite Platte gebracht, die »wasserstoffgierig« oder auch nur weniger sauerstoffgierig ist als Zink, so bleibt die Anordnung der Flüssigkeitsteilchen bestehen. Wird jetzt eine leitende Ver[Pg 92]bindung zwischen dem Zink und dem zweiten Metall hergestellt, so fließt die positive Elektrizität zum Zink und die Zersetzung beginnt, während an den Berührungsstellen die geschilderte Tendenz fortdauert. Mit Recht hat Faraday Schönbein vorgeworfen, daß er einen andauernden Vorgang wie den galvanischen Strom aus einer Tendenz oder einem bloßen Zustand erklären wolle. Andererseits hat Schönbein seine Theorie in einer späteren Abhandlung103 vom Jahre 1849 soweit ausgebaut, daß, wie schon erwähnt, ihr Grundgedanke sich für die weitere Entwicklung der Wissenschaft als fruchtbar erwiesen hat. Faraday hat sich nach Abschluß seiner in der 16. und 17. Reihe gegebenen Untersuchung mit dem auch jetzt noch nicht völlig geklärten Vorgang nicht weiter beschäftigt.
Von dem Bestreben, wie auf den Gebieten des Galvanismus und der chemischen Aktion, neue Beziehungen zwischen den Kräften aufzudecken, blieb Faraday indessen stets erfüllt. Aus der Überzeugung, daß solche Beziehungen auch zwischen der Elektrizität und dem Lichte bestehen, entsprang sein berühmter Versuch der Magnetisierung des Lichtes104. Nachdem alle Bemühungen, einen unmittelbaren Einfluß des Magneten auf einen gewöhnlichen Lichtstrahl nachzuweisen, erfolglos gewesen waren, brachte Faraday ein Stück Glas von besonderer Zusammensetzung zwischen die Pole eines kräftigen Elektromagneten, so daß es über die Ebene dieser Pole hinausragte. Durch das Glas wurde dann in axialer Richtung105 ein polarisierter Lichtstrahl geleitet und der analysierende Nicol so gestellt, daß der Strahl erlosch. Wurde jetzt der Elektromagnet erregt, so erhellte sich das Gesichtsfeld. Es konnte aber durch eine entsprechende Drehung des Analysators wieder verdunkelt werden. Die Polarisationsebene des Lichtes hatte somit unter der Wirkung des Elektromagneten eine Drehung erfahren.
Ersetzte man den Elektromagneten durch einen guten Stahlmagneten, so war die Wirkung zwar weniger stark, sie war jedoch noch deutlich vorhanden. Auch durch die bloße Anwendung strom[Pg 93]durchflossener Leiter ließ sich eine Drehung der Polarisationsebene des Lichtes erzielen. Die Einrichtung, welche Faraday hierbei traf, war die folgende. Stäbe oder Prismen der zu untersuchenden durchsichtigen Substanzen wurden in das Innere eines Solenoids, d. h. eines schraubenförmig gewundenen Drahtes, gebracht. Durch diesen leitete Faraday den Strom. Der Erfolg war der gleiche wie bei den Versuchen mit Elektromagneten und Stahlmagneten. Wurde nämlich ein polarisierter Lichtstrahl in einer zu seiner Richtung geneigten Ebene von einem elektrischen Strome umkreist, so erfolgte eine Drehung des Strahles um seine Achse in gleicher Richtung mit der Richtung des Stromes. Dies geschah so lange, wie der Strom seinen Einfluß ausübte.
Flüssigkeiten wurden in Röhren untersucht, die Faraday in das Solenoid hineinsteckte. Als er eine Röhre voll Wasser von gleicher Länge mit dem Solenoid mehr oder weniger aus letzterem herausragen ließ, konnte er den Einfluß der Länge des Diamagnetikums, wie er die das Licht beeinflussende Substanz nannte, ermitteln. Je länger nämlich die der Wirkung des Solenoides ausgesetzte Wassersäule war, um so stärker war auch die Drehung des polarisierten Strahles. Der Betrag der Drehung schien direkt proportional der Länge der Flüssigkeit zu sein, die vom elektrischen Strom umkreist wurde.
Brachte Faraday Stoffe in das Solenoid, die schon von Natur ein Drehvermögen besitzen, wie Zucker, Weinsäure und weinsaure Salze, so wurde die vom elektrischen Strom erzeugte Drehung der ursprünglichen hinzugefügt.
»So glaube ich zum ersten Male«, sagt Faraday am Schlusse seiner Abhandlung »eine direkte Beziehung zwischen dem Licht, der Elektrizität und dem Magnetismus festgestellt zu haben«. Das, meint er, sei ein großer Fortschritt auf dem Wege, nachzuweisen, daß »alle Naturkräfte miteinander verknüpft sind und einen gemeinschaftlichen Ursprung haben«.
Die Entdeckung der »Magnetisierung des Lichtes« brachte Faraday auf den Gedanken, den Einfluß des Magnetismus auf sämtliche Stoffe zu untersuchen106. Zunächst wurde ein Stück jenes Glases, das ihm beim vorigen Versuch gedient[Pg 94] hatte, zwischen den Polen eines sehr kräftigen Elektromagneten aufgehängt. Das Glas nahm darauf die Querstellung er (siehe Abbildung 22) an, ein Beweis, daß es von den Polen abgestoßen wurde, während sich ein Eisenstäbchen infolge einer von den Polen ausgehenden Anziehung in die Verbindungslinie der Pole einstellte. Die weitere Untersuchung ergab, daß alle Stoffe einschließlich der flüssigen und der gasförmigen, sich entweder wie das Eisen oder wie jenes Glas verhalten. Im ersteren Falle nannte Faraday den Stoff paramagnetisch, während er im anderen Falle als diamagnetisch bezeichnet wurde.
Diamagnetisch war nicht nur das eigentümliche Glas, mit dem Faraday die Magnetisierung des Lichtes gelungen war und das aus kieselborsaurem Bleioxyd bestand. Auch die übrigen Glassorten wie Flint- und Kronglas, erwiesen sich als diamagnetisch, desgleichen Quarz, Kalkspat, Salpeter, Glaubersalz. Nichtmetalle, wie Phosphor und Schwefel, wurden gleichfalls von den Polen des Magneten abgestoßen. Die Metalle verhielten sich teils paramagnetisch wie das Eisen, teils diamagnetisch. Wie Eisen verhielten sich Nickel, Kobalt, Mangan, Chrom, Elemente, die auch in ihrem chemischen Verhalten viel Verwandtes aufweisen. Als diamagnetische Metalle erkannte Faraday Wismut, Antimon, Zinn, Zink, Blei, Silber, Gold und viele andere.
Flüssigkeiten wurden in Glasröhren eingeschlossen, die so dünn waren, daß man die Einwirkung des Magneten auf das Glas außer acht lassen konnte. Die gefüllten Röhren wurden dann zwischen den Polen des Magneten auf die Art ihrer Einstellung untersucht. Auch auf die Gase, ja selbst auf organische Substanzen dehnte Faraday seine Untersuchung aus. Es machte einen seltsamen Eindruck, daß Holz, Fleisch oder ein Apfel dem Magnet gehorchten. »Könnte ein Mensch«, fügt Faraday hinzu, »leicht beweglich aufgehängt und in das magnetische Feld gebracht werden, so würde er sich quer zur Verbindungslinie der Pole einstellen, denn alle Stoffe, aus denen er gebildet ist, mit Einschluß des Blutes, besitzen diese Eigenschaft.« Faraday wirft die Frage auf, ob nicht in der Natur unter den Myriaden von Gestalten, die an allen Teilen der Erdoberfläche den Magnetkraftlinien ausgesetzt sind, ähnliche Wirkungen vorkommen können.
Zuerst hat Faraday die Abstoßung durch die Annahme einer Polarität zu erklären gesucht. Und zwar sollte bei den diamagnetischen Stoffen der Nordpol des Magneten nicht wie beim Eisen einen Südpol, sondern einen Nordpol induzieren. Später gab er die Ansicht, daß eine diamagnetische Polarität existiere, wieder auf. Sie ist indessen von anderer Seite, insbesondere von Weber nachgewiesen worden. Im Verlaufe seiner Entdeckungen gelangte Faraday zu Ansichten über die Natur der Elektrizität, die von den Theorien früherer Forscher erheblich abwichen und das Fundament der später von Maxwell entwickelten, neueren Vorstellungen gebildet haben. Zusammengefaßt hat Faraday diese Ansichten zuerst im Jahre 1838107. Faraday wandte sich damals besonders gegen die Vorstellung, als ob die Erscheinungen der Influenz und des Elektromagnetismus als eine Wirkung in die Ferne, die ohne eine Vermittlung zwischenliegender Teilchen vor sich gehe, aufzufassen sei. Die Teilchen des isolierenden Diëlektrikums, z. B. der Luft, die eine mit Elektrizität geladene Kugel umgibt, sind nach Faraday nicht etwa in einem indifferenten Zustande, sondern sie sind polarisiert. Faraday vergleicht die Teilchen des Diëlektrikums mit kleinen Magnetnadeln oder zahllosen kleinen isolierten Konduktoren. Unter dem Einfluß der elektrisierten Kugel würden diese polar, und nach der Entladung der Kugel kehrten sie in ihren gewöhnlichen Zustand zurück. Die Spannungsbeziehungen zwischen den polarisierten Teilchen des Diëlektrikums sollten ferner krummen Linien der influenzierenden Kraft entsprechen.
Auch hinsichtlich der magnetischen und der Induktionswirkungen des Stromes, seiner Querkraft, wie Faraday sich ausdrückt, kommt er zu einem ähnlichen Ergebnis. Er hält es für wahrscheinlich, daß auch diese Wirkungen durch Vermittlung zwischenliegender Teilchen fortgepflanzt werden, ähnlich wie es mit der Influenzwirkung der statischen Elektrizität geschehe. Wie im letzteren Falle so seien auch bei den Erscheinungen der strömenden Elektrizität die angrenzenden Teilchen in einem besonderen Zustand, den Faraday als den elektrotonischen Zustand bezeichnet. Faraday hat sich eifrig bemüht, diese Vorstellungen durch geeignete Experimente zu stützen. Es gelang ihm auch der Nachweis, daß die Erscheinungen der statischen Elektrizität von der Art des Diëlek[Pg 96]trikums (Luft, Schellack, Schwefel) beeinflußt werden, und daß die Elektrizität Zeit gebraucht, um das Diëlektrikum zu durchdringen108.
Wir werden später erfahren, wie Faradays Lehre von der Polarisation oder dem elektrotonischen Zustand des Diëlektrikums, d. h. des isolierenden Zwischenmittels, insbesondere von Maxwell weiter ausgebildet wurde, der als dielektrisches Mittel im leeren Raum den Äther ansah.
Faradays Bemühungen, eine Beziehung zwischen der Elektrizität und der Schwerkraft aufzufinden, blieben ohne Ergebnis. In dem Nachweis, daß der Magnetismus eine auf sämtliche Stoffe wirkende Kraft ist, bestand seine letzte große Entdeckung. Er starb am 25. August des Jahres 1867 in dem Hause, das ihm die Königin etwa zehn Jahre zuvor geschenkt hatte.
Faraday faßte bei seinen Untersuchungen vorzugsweise die qualitative Seite der Naturerscheinungen ins Auge. Als Autodidakt besaß er nicht die nötige mathematische Schulung, um den quantitativen Beziehungen in gleicher Weise gerecht zu werden. Das Ohmsche Gesetz z. B., welches besagt, daß die Stromstärke proportional der elektromotorischen Kraft und umgekehrt proportional dem Leitungswiderstande ist, wurde von Faraday fünf Jahre, nachdem Ohm es veröffentlicht hatte109, noch nicht berücksichtigt110. Die quantitative Seite des Magnetismus wurde gleichfalls erst in Deutschland genügend gewürdigt, wo Gauß die Intensität dieser Naturkraft bestimmte111 und die Grundlagen für das absolute Maßsystem schuf, das Wilhelm Weber dann auf das galvanische Gebiet ausdehnte.
Der erste, der die von Laplace begründete Potentialtheorie auf die elektrischen und die magnetischen Erscheinungen anwandte und so die Grundlage schuf, auf welcher Gauß und neuere Forscher den mathematischen Teil der modernen Elektrizitätslehre errichteten, war Green. Seine Verdienste wurden indessen schon in einem früheren Abschnitt gewürdigt112. Den Ausgangspunkt für die über Green und Gauß bis in die neueste Zeit hinein führende Reihe von theoretischen Untersuchungen bildet das Coulombsche Gesetz[Pg 97] der statischen oder Reibungselektrizität, dessen Analogie mit dem Newtonschen Gravitationsgesetz zu einer Übertragung der von Laplace behandelten Probleme auf das Gebiet der statischen Elektrizität geführt hatte. Um die neu erschlossenen Gebiete der galvanischen Elektrizität und der Induktion gleichfalls der mathematischen Analyse unterwerfen zu können, war es nötig, ähnlich wie es Coulomb für die statische Elektrizität getan, zunächst gesetzmäßige Beziehungen aufzufinden. Nur auf diese Weise ließ sich der Boden zur Aufstellung einer umfassenderen Theorie gewinnen.
Für die elektromagnetische Wirkung gelang es noch im Jahre ihrer Entdeckung (1820 durch Oersted113) eine solche gesetzmäßige Beziehung zu finden. Eine von Biot und Savart unternommene Untersuchung114 über die Wirkung des galvanischen Stromes auf eine an einem Kokonfaden hängende Magnetnadel ergab, daß die von dem Strom auf einen Magnetpol ausgeübte Kraft senkrecht zu der durch den Pol und den Strom gelegten Ebene wirkt und daß die Intensität dieser Kraft der Entfernung des Pols von dem Strom umgekehrt proportional ist. Auf den ersten Blick zeigt sich in diesem Falle keine Analogie mit dem Attraktions- und dem Coulombschen Gesetz. Letztere tritt aber hervor, wenn man von dem an der Nadel vorübergeführten gradlinig und unbegrenzt gedachten Strom nur ein Element ins Auge faßt. Für ein solches Element läßt sich aus der von Biot115 und Savart116 gefundenen Regel ableiten, daß seine Wirkung sich umgekehrt wie das Quadrat des Abstandes verhält.
Das Biot-Savartsche Gesetz ist durch zahlreiche spätere Untersuchungen bestätigt worden. Sein mathematischer Ausdruck lautet117:
K = (i . m . ds) / r2 . sin w
Das Hauptgesetz der Elektrodynamik fand Ampère, dessen grundlegende Untersuchungen über die Anziehung und die Abstoßung gleich- und entgegengesetzt gerichteter Ströme im Jahre 1820 ein neues wichtiges Gebiet der Elektrizitätslehre erschlossen hatten118.
Ampère ging bei seiner Untersuchung von der Annahme aus, daß die Kraft, die zwei Stromelemente aufeinander ausüben, den Intensitäten und der Länge, sowie einer Funktion der in Betracht kommenden Winkel direkt proportional sein müsse. Ferner war anzunehmen, daß die Kraft sich mit der Entfernung verringern müsse, d. h. daß sie der Entfernung oder irgend einer Potenz der Entfernung umgekehrt proportional sei. Dies ergab zunächst den Ausdruck:
K = (i . i1 . ds . ds1)/rn · ρ
Die Größe der Konstanten ρ hängt von der gegenseitigen Lage der Stromelemente ab; ρ = ist also eine Winkelfunktion. Durch eine Reihe von messenden Versuchen vermochte es Ampère, die Gestalt jener Winkelfunktion und den Exponenten von r zu bestimmen. Wie kaum anders zu erwarten, ergab sich auch in diesem Falle, daß die elektrodynamische Wirkung in völliger Analogie mit den Gesetzen von Newton, Coulomb und von Biot-Savart dem Quadrate der Entfernung umgekehrt proportional ist. Ampères elektrodynamisches Grundgesetz erhält dementsprechend die Formel:
K = (i . i1 . ds . ds1) / r2 · ρ
Der Ausdruck ρ ist eine Funktion der beiden Winkel θ und θ1, den die Stromelemente mit ihrer Verbindungslinie bilden und eines dritten Winkels ε, den die durch ds und r, sowie durch ds1 und r gelegten Ebenen miteinander machen119.
Bei den bisher betrachteten Gesetzen handelte es sich um Fernwirkungen der Elektrizität. Es war noch nötig, quantitative Beziehungen für die Intensität des Stromes selbst und für seine[Pg 99] elektrolytische Wirkung zu finden, sowie die mathematische Analyse auf das neu erschlossene Gebiet der Induktion auszudehnen.
Wie die Intensität des Stromes durch die elektrischen Spannungen und Widerstände bestimmt wird, entdeckte Ohm. In seiner 1827 erschienenen Schrift »Die galvanische Kette, mathematisch bearbeitet« löste er die Aufgabe »aus wenigen, durch die Erfahrung gegebenen Prinzipien den Inbegriff derjenigen elektrischen Erscheinungen abzuleiten, die unter dem Namen der galvanischen begriffen werden«120.
Um das Lebenswerk Ohms zu würdigen, muß man sich die Schwierigkeiten vergegenwärtigen, mit denen Ohm Zeit seines Lebens zu kämpfen hatte. Man erkennt dann, wie gering so häufig die Anerkennung und der Lohn sind, den das geniale Schaffen bei den Zeitgenossen findet.
Georg Simon Ohm wurde 1789 in Erlangen geboren. Sein Vater, ein Schlossermeister, besaß ein lebhaftes Interesse für die Mechanik und die Mathematik. Er gab seinen Söhnen in diesen Wissenschaften die erste Unterweisung und ermöglichte ihnen den Besuch der Universität. Da es an Mitteln gebrach, mußte Georg Simon Ohm nach kurzem Studium eine Lehrerstelle in Bamberg annehmen. Von 1817 bis 1826 wirkte Ohm am Gymnasium in Köln. In diese Zeit fallen seine Untersuchungen über die Intensität der galvanischen Kette121. Um diese Untersuchungen zum Abschluß bringen zu können, ließ er sich für ein Jahr beurlauben. An die im Jahre 1827 erschienene, zusammenfassende Darstellung seiner Ergebnisse knüpfte Ohm die Hoffnung, daß sich ihm die akademische Laufbahn erschließen werde. Diese Hoffnung erfüllte sich nicht, denn Ohms Arbeit, die ihn mit einem Schlage in die Reihe der ersten Forscher stellte, fand bei den deutschen Hochschullehrern, von denen manche der naturphilosophischen Richtung angehörten, keine günstige Aufnahme. Auch der Umstand, daß Ohm als Gymnasiallehrer eigentlich nicht zur gelehrten Zunft gehörte, mag mitgewirkt haben. Ohm nahm nach Ablauf seines Urlaubes sein Amt nicht wieder auf. Er lebte eine Reihe von Jahren in der Zurückgezogenheit und in sehr dürftigen Verhältnissen, bis er zum Lehrer der Physik an einer technischen Schule in Nürnberg[Pg 100] ernannt wurde. Erst als ausländische Forscher auf Ohms bahnbrechende Leistungen aufmerksam wurden und ihm die Royal Society ihre höchste wissenschaftliche Auszeichnung durch Überreichung einer Medaille zugesprochen hatte, fand er auch in Deutschland Anerkennung. Jetzt ging auch, freilich zu spät, Ohms Wunsch in Erfüllung, indem man ihn im Alter von 65 Jahren zum ordentlichen Professor ernannte. Bald darauf starb Ohm im Jahre 1854 in München.
Bei den Versuchen, die ihn zur Auffindung seines Gesetzes führten, benutzte Ohm zunächst ein Kupfer-Zink-Element, dessen Metallplatten in eine chemisch wirkende Flüssigkeit (Schwefelsäure) tauchten. Man nannte eine derartige Stromquelle wohl ein Hydroelement zum Unterschied von dem von Ohm später benutzten, ohne Flüssigkeit arbeitenden Thermoelement. Zwischen die Polenden seiner Stromquelle brachte Ohm Leitungsdrähte von verschiedener Länge und Dicke und beobachtete die Ablenkung, welche die Galvanometernadel unter der Einwirkung des Stromes erfuhr.
Ohm bemerkte bald, daß die Hydroketten einen sehr ungleichmäßigen Strom liefern. Er hielt deshalb seine Kette vor Beginn eines Versuches längere Zeit geschlossen. Es hatte sich nämlich herausgestellt, daß die elektrische Kraft eines Hydroelementes sofort nach dem Eintauchen der Metallplatten in die Säure rasch abnimmt und erst nach dem Erreichen eines Minimums eine gewisse Konstanz zeigt. Wurde der Strom dann eine Zeitlang unterbrochen, so wirkte das Element wieder bei weitem kräftiger, so daß beispielsweise ein in den Stromkreis eingeschalteter Draht von neuem aufglühte. Ohm erkannte ganz richtig, daß die von ihm als »das Wogen der elektrischen Kraft« bezeichneten Schwankungen ihren Grund in einer Zersetzung der auf die Platten wirkenden Flüssigkeit haben, ein Vorgang, den man als Polarisation des Elements bezeichnet hat. Die Erkenntnis dieses Vorganges hat zur Erfindung der konstanten Elemente geführt, die einen ziemlich gleichmäßigen Strom liefern, Ohm aber noch nicht zu Gebote standen.
Um mit einer sich gleich bleibenden elektromotorischen Kraft arbeiten zu können, bediente sich Ohm später eines aus Wismut und Kupfer verfertigten Thermoelementes. Den Stellen, an denen sich das Wismut und das Kupfer eines solchen Elements berühren, gab er einen beständigen Temperaturunterschied, indem er die eine Lötstelle beständig auf der Temperatur des siedenden Wassers, die andere auf derjenigen des schmelzenden Eises erhielt.[Pg 101] Von dem so störenden »Wogen der elektrischen Kraft« war jetzt »auch nicht eine Spur mehr wahrzunehmen«. Die Galvanometernadel blieb vielmehr bei jedem Stromschluß, sowie sie zur Ruhe gekommen war, unbeweglich stehen. Durch zahlreiche, mit Hilfe der Thermokette und des Galvanometers an Leitungsdrähten verschiedener Länge angestellte Versuche wurde Ohm zu der Erkenntnis geführt, daß sich sämtliche Versuchsergebnisse der Formel
X = a/(b + x)
anpassen ließen.
In diesem Ausdruck bedeuten nach den Worten Ohms X die Stärke der magnetischen Wirkung (die Intensität des Stromes) und x die Länge des eingeschalteten Schließungsdrahtes (Länge und Widerstand des Drahtes sind einander proportional). a und b sind konstante, von der erregenden Kraft und dem Widerstande der übrigen Teile der Kette (innerer Widerstand genannt) abhängende Größen.
Auch die theoretischen Betrachtungen, die Ohm über die Wirkung der galvanischen Säule anstellte, erwiesen sich für die Folgezeit als außerordentlich fruchtbar. Ohne auf diese Betrachtungen im einzelnen einzugehen, sei hervorgehoben, daß sie sich an die auf den Gebieten der Hydrodynamik und der Theorie der Wärmeleitung entstandenen Vorstellungen anschlossen. Das Strömen des Wassers, der Wärme und der Elektrizität betrachtete Ohm als analoge Vorgänge.
Dasselbe, was beim Wärmestrom die Temperaturdifferenz und beim fließenden Wasser der Neigungswinkel bewirkt, wird nach Ohms Vorstellung beim elektrischen Strom durch den Spannungsunterschied (die Potentialdifferenz) veranlaßt. Für den Spannungsunterschied zwischen zwei um die Längeneinheit voneinander entfernten Punkten brauchte Ohm den noch heute üblichen Ausdruck »Gefälle«122.
Die erste Bestätigung des Ohmschen Gesetzes erfolgte durch Fechner. Obgleich auch Fechner noch keine konstanten Elemente zu Gebote standen, gelang es ihm dennoch, die Richtigkeit der von Ohm für thermoelektrische Ströme gefundenen Formel für[Pg 102] Hydroelemente nachzuweisen123. Fechner war es auch, der zuerst die große Bedeutung der Ohmschen Entdeckung anerkannte. Nach Fechners Worten ist Ohm das Verdienst beizumessen, mit den wenigen Buchstaben seiner Formel eine neue Epoche für die Lehre vom Galvanismus begründet zu haben. Ohms Formel lehre zwar keine neuen Erscheinungen kennen, sie verknüpfe aber ein großes Gebiet von Erscheinungen, die früher rätselhaft nebeneinander gestanden. Vor allem besitze man jetzt sichere Anhaltspunkte für das Maß der galvanischen Vorgänge, so daß jetzt erst eine wissenschaftliche Behandlung dieses Gegenstandes möglich sei.
Als den Entdecker des elektrolytischen Grundgesetzes lernten wir Faraday kennen. Dieser fand, daß die Mengen der von einem Strome ausgeschiedenen Elektrolyten sich wie die chemischen Äquivalente verhalten und der Stromstärke proportional sind124. Es blieb noch übrig, für die Wärmewirkung und das von Faraday erschlossene Gebiet der Induktion die mathematische Theorie zu entwickeln. Dies geschah durch eine Reihe von Forschern, unter denen Joule, Lenz, Wilhelm Weber und Franz Neumann an erster Stelle zu nennen sind.
Daß ein Metalldraht, durch den ein elektrischer Strom geht, erwärmt wird, gehörte zu den ersten Beobachtungen über die Wirkungen der galvanischen Elektrizität. Davy hatte125 nachgewiesen, daß bei Anwendung ein und derselben Stromquelle Eisen sich viel rascher erhitzt als Zink und letzteres rascher als Kupfer oder Silber, vorausgesetzt, daß es sich um Metalldrähte von gleicher Länge und Dicke handelte. Diese Tatsache wurde dahin gedeutet, daß das Eisen die Elektrizität schlechter leite als Zink, und daß Silber und Kupfer die besten Leiter seien. Eine genauere messende Untersuchung der Wärmeleitung des elektrischen Stromes unternahm der Engländer Joule126.
Joule ermittelte die Temperaturzunahme, die ein in einer Glasröhre befindlicher Quecksilberfaden durch verschieden starke Ströme erfährt. Es ergab sich, daß die durch den Strom erzeugte Wärmemenge dem Quadrat der Stromintensität proportional ist. Durch eine Ausdehnung dieser Versuche auf andere Metalle fand Joule ferner, daß die erzeugte Wärme dem Widerstande w der benutzten Drähte direkt proportional ist. Für die während der Zeit t somit erzeugte Wärmemenge W ergab sich, wenn i die Intensität des Stromes und c eine von der Beschaffenheit des Drahtes abhängige Konstante ist:
W = c · i2 w · t
als mathematischer Ausdruck (Joulesches Gesetz). Im weiteren Verlaufe seiner Untersuchungen über die Wärmewirkung des Stromes wurde Joule auf die Entdeckung des Gesetzes von der Erhaltung der Kraft geführt. Die näheren Umstände dieser Entdeckung, die Joule mit anderen Forschern teilte, sollen in einem späteren, besonderen Abschnitt erörtert werden.
Bestätigt wurde das Joulesche Gesetz durch eine ausgedehnte und genaue Untersuchung von Lenz127. Von Interesse ist das sinnreiche Verfahren, das Lenz unter Benutzung des in Abbildung 23 dargestellten Apparates anwandte.
Ein Glasgefäß wurde mit Alkohol gefüllt und luftdicht verschlossen. Durch den Stöpsel gingen zwei Platindrähte, zwischen welche der zu erwärmende Draht eingeschaltet wurde. Durch den nach oben gekehrten Boden der Glasflasche wurde ein Thermometer geführt. Als Stromquelle benutzte Lenz das von dem Engländer Daniell128 im Jahre 1836 erfundene konstante Element. Die durch den galvanischen Strom in der Drahtspirale erzeugte Wärme teilte sich dem Weingeist mit, dessen Temperatur[Pg 104]erhöhung an dem Thermometer abgelesen wurde. Um den durch Abgabe von Wärme an die Luft entstehenden Fehler auszugleichen, bediente sich Lenz eines Kunstgriffs. Er kühlte seinen Meßapparat um 6° unter der Temperatur der umgebenden Luft ab und schickte den Strom so lange hindurch, bis die Temperatur des Alkohols 6° über der Temperatur der Umgebung lag. Auf diese Weise wurde der durch Wärmeabgabe entstehende Fehler ausgeglichen, da der Apparat während der ersten Hälfte der Zeitdauer des Versuches ebensoviel Wärme von außen empfing, als er in der zweiten Hälfte abgab. Die Intensität des Stromes maß Lenz mit Hilfe des von Faraday erfundenen Knallgasvoltameters. Die entstandenen Wärmemengen waren den Quadratzahlen der im Voltameter abgeschiedenen Gasvolumina und somit den Quadraten der Stromintensitäten proportional.
Der Umwandlung von Elektrizität in Wärme entsprach als Umkehrung des Vorganges die Erzeugung von elektrischem Strom durch Wärmezufuhr. Mit der Erforschung dieses 1821 von Seebeck erschlossenen Gebietes der thermoelektrischen Ströme129 hat sich Lenz gleichfalls beschäftigt. Da in einem aus verschiedenartigen Metallen, z. B. aus Wismut und Antimon verfertigten Metallbügel ein Thermostrom entsteht, wenn man an den beiden Berührungsstellen der Metalle eine Temperaturdifferenz durch Erwärmen oder durch Abkühlen der einen Stelle hervorruft, so erhob sich die Frage, ob sich nicht auch umgekehrt eine Temperaturdifferenz dadurch hervorrufen läßt, daß man einen elektrischen Strom durch ein Thermoelement schickt. Daß diese Frage zu bejahen ist, erkannte der Franzose Peltier130. Er fand131, daß an der Berührungsstelle eines aus Antimon und Wismut zusammengelöteten Stabes Erwärmung eintritt, wenn der Strom vom Antimon zum Wismut fließt. Dagegen wurde eine Temperaturerniedrigung bei der Umkehrung des Stromes wahrgenommen. Lenz gelang es, diesen als Peltiers Phänomen bezeichneten Vorgang besonders[Pg 105] auffallend dadurch zu demonstrieren, daß er durch einen galvanischen Strom Wasser an der Lötstelle eines Thermoelementes zum Gefrieren brachte und das entstandene Eis auf 4,5° unter den Gefrierpunkt abkühlte.
Die mit der Ausdehnung der physikalischen Untersuchungen immer häufiger beobachtete Erscheinung, daß für jeden Vorgang eine Umkehrung möglich ist, mußte mit wachsender Deutlichkeit den Begriff einer allgemeinen Umwandelbarkeit der Kräfte ineinander erstehen lassen. Da man ferner jeden neuen Vorgang messend verfolgte, so mußte die Frage, ob die bei einer Umwandlung verschwindende Kraftgröße der neu entstehenden äquivalent ist, d. h. ob sich bei einer Rückverwandlung der alte Wert ergibt, immer mehr hervortreten. Wir sehen also, daß schon in den dreißiger Jahren des 19. Jahrhunderts alles auf die große Verallgemeinerung, die bald darauf in dem Gesetz von der Erhaltung der Kraft geschaffen wurde, hindrängte.
An die Untersuchungen über das Peltiersche Phänomen schloß sich die Entwicklung einer Theorie der Thermoströme. Es ergab sich, daß für geringe Temperaturunterschiede die Stromstärke der an den Berührungsstellen der Metalle vorhandenen Temperaturdifferenz proportional ist.
Lenz war auch der erste Physiker, dem es gelang, für die Induktionserscheinungen allgemeinere Gesetze zu finden. Zunächst erkannte Lenz, daß alle Induktionserscheinungen sich unter eine bestimmte Regel fassen lassen, aus der sich die Richtung des induzierten Stromes sofort entnehmen läßt. Wird nämlich die relative Lage eines Magneten oder eines Stromleiters zu einem zweiten Stromleiter geändert, so entsteht jedesmal in dem zweiten Stromleiter ein induzierter Strom, der dem Magneten oder dem induzierten Stromleiter eine der ihnen erteilten Bewegung entgegengesetzte Bewegung zu geben strebt132. Die Wirkung, welche ein Magnet oder ein Strom infolge ihrer Bewegung auf einen Leiter ausüben, besteht also darin, daß der induzierte Leiter die Bewegung, die in ihm den Induktionsstrom hervorruft, zu hemmen sucht. Man hat diese Regel wohl als das Lenzsche Gesetz oder als das Grundgesetz der elektrischen Induktion bezeichnet.
Offenbar war in dem Lenzschen Gesetz schon die Beziehung zwischen Stromerzeugung und mechanischer Arbeit aufgedeckt. Um z. B. einen Magneten einem Stromleiter zu nähern, mußte ein von[Pg 106] dem induzierten Strom herrührender hemmender Einfluß überwunden, also mechanische Arbeit geleistet werden. Es bedurfte nur des Nachweises, daß es sich bei dieser Umwandlung der einen Kraft in die andere um äquivalente Leistungen handelt. Diesen Nachweis erbrachte Helmholtz im Jahre 1847. Er dehnte dadurch das von Mayer ausgesprochene Gesetz von der Erhaltung der Kraft auf das Gebiet der elektrischen und magnetischen Vorgänge aus, nachdem es vor ihm in erster Linie für die mechanischen Vorgänge und die Erscheinungen der Wärme nachgewiesen worden war. Wir sehen auch hier wieder, wie alles auf die Entdeckung des grundlegenden Prinzips der neueren Naturwissenschaft hindrängte. Die eingehendere Betrachtung dieses Prinzips und seiner Entdeckung bleibt einem besonderen späteren Abschnitt vorbehalten.
Lenz suchte auch zuerst die Stärke der Induktionsströme zu ermitteln. Er umwickelte ein stabförmiges Stück Schmiedeeisen mehrfach mit einem Draht und verband diesen mit einem Galvanometer. Indem er einen Stahlmagneten an den Eisenstab legte oder ihn von dem Eisenstab entfernte, erzeugte Lenz in dem Draht Magnetinduktionsströme, die eine momentane Ablenkung der Galvanometernadel hervorriefen. Es ergab sich133, daß die Intensität des induzierten Stromes dem Sinus des halben Ablenkungswinkels proportional ist. Darauf wurden die Intensitäten für eine verschiedene Anzahl von Windungen (2, 4, 8, 16) miteinander verglichen. Es zeigte sich, daß die in der Spirale erzeugten Ströme eine um so größere Intensität besitzen, je größer die Zahl der Windungen ist. Der Weg, auf dem Lenz die Beziehung zwischen der Intensität des induzierten Stromes und der Ablenkung der Galvanometernadel entdeckte, ist ein lehrreiches Beispiel für die Anwendung der älteren, auf dem Gebiete der Mechanik gewonnenen Gesetze auf das neu erschlossene Gebiet der Elektrizitätslehre. Lenz ließ sich durch folgende Überlegung leiten. Da die Wirkung des induzierten Stromes auf die Magnetnadel nur momentan ist, so läßt sie sich mit einem auf ein ruhendes Pendel ausgeübten Stoß vergleichen. Die Nadel und das Pendel entfernen sich so weit aus der Gleichgewichtslage, bis die Bewegung, die sie erhalten haben, durch die entgegenwirkenden Kräfte vernichtet ist. Nach der Umkehr der Nadel, beziehungsweise des Pendels, wirken dieselben Kräfte beschleunigend, die vorher die Bewegung verzögerten.[Pg 107] Das Pendel und die ganz analogen Bedingungen ausgesetzte Nadel kehren nach den für das Pendel ermittelten Gesetzen in die ursprüngliche Lage mit der gleichen Geschwindigkeit zurück, mit der sie diese Lage verlassen haben. Die Geschwindigkeit ist ferner der Stärke des Stoßes, beziehungsweise der Intensität des induzierten, auf die Nadel wirkenden Stromes proportional. Die gleiche Formel, welche die Abhängigkeit der Geschwindigkeit eines Pendels von dem Ausschlagswinkel ausdrückt, gilt also auch für die Bestimmung der Intensität des Induktionsstromes. Letztere ist danach dem Sinus des halben Ablenkungswinkels proportional.
Ausgehend von dem Lenzschen Grundgesetz von der hemmenden Wirkung, die der induzierte Strom auf die Bewegung des induzierenden Stromes oder des Magneten ausübt, entwickelte Franz Neumann im Jahre 1845 ausführlicher die mathematischen Gesetze der induzierten elektrischen Ströme. Neumann ist für die Entwicklung der Physik in Deutschland von so großer Bedeutung gewesen, daß wir seinem Lebensgange eine kurze Betrachtung widmen wollen.
Franz Ernst Neumann wurde 1798 als Sohn eines Gutsverwalters in der Uckermark geboren. Als 16jähriger Gymnasiast beteiligte er sich an dem Feldzuge von 1815. Er wurde bei Ligny schwer verwundet. Auf der Universität wandte sich Neumann zunächst der Theologie zu. Neigung und der Einfluß des Mineralogen Weiß bewogen ihn, sein anfängliches Studium mit demjenigen der Naturwissenschaften zu vertauschen. Trotz der bittersten Armut gelang es Neumann, dank seiner Anspruchslosigkeit und seiner eisernen Pflichttreue, sich zu einer Dozentenstellung emporzuarbeiten. Sie war freilich bescheiden genug. Sein Anfangsgehalt als Professor der Mineralogie und der Physik in Königsberg belief sich auf 200 Taler jährlich134. Als sich seine Verhältnisse etwas gebessert hatten, ermöglichte er in Anbetracht der kärglichen, vom Staate[Pg 108] gebotenen Mittel durch persönliche Geldopfer die Einrichtung eines physikalischen Laboratoriums für seine Schüler.
Als Neumann seine wissenschaftliche Tätigkeit begann, wurden an den deutschen Hochschulen nicht viel mehr als die Anfangsgründe der Physik gelehrt. Der exakt wissenschaftlichen Arbeit fehlte es, wie auch Ohm erfahren mußte135, an Anerkennung. Versuche wurden geringer eingeschätzt als die schrankenlosen Spekulationen der herrschenden, naturphilosophischen Richtung. Während dieses für die Entwicklung der Naturwissenschaften in Deutschland so wenig günstigen Zeitraums richteten sich die Blicke der jüngeren Forscher, soweit sie nicht selbst in den Netzen einer ungesunden Philosophie verstrickt waren, auf Frankreich, das um die Wende vom 18. zum 19. Jahrhundert durch Männer wie Laplace, Lavoisier, Coulomb, Gay-Lussac, Ampère und Fresnel, um nur einige glänzende Namen zu nennen, die größten Erfolge auf dem Gebiete der exakten Wissenschaften gezeitigt hatte. Es ist Neumanns Verdienst, daß er die mathematisch-physikalische, nach dem Muster der großen französischen Forscher betriebene Methode in Deutschland eingeführt hat. Mit welchem Erfolge er dies auf dem Gebiete der Optik im Anschluß an die Arbeiten Fresnels tat, haben wir in einem früheren Abschnitt erfahren. Nachdem Faraday die induzierten Ströme entdeckt hatte, galt es, auch dieses Gebiet gleich den früher erschlossenen Gebieten der Elektrizitätslehre der mathematischen Analyse zu unterwerfen. Die erste befriedigende Lösung dieser Aufgabe brachte Neumann in zwei Abhandlungen von 1845 und 1847, also fast anderthalb Jahrzehnte nach dem Bekanntwerden der Entdeckungen Faradays136. Von besonderer Wichtigkeit war die Arbeit vom Jahre 1847 über das allgemeine Prinzip der mathematischen Theorie induzierter elektrischer Ströme. In dieser Arbeit zeigte Neumann, wie sich ohne jede Voraussetzung über das Wesen der Elektrizität die Stärke der induzierten Ströme berechnen[Pg 109] läßt. Neumann ging von dem Lenzschen Gesetze aus, nach dem der induzierte Strom stets so gerichtet ist, daß er die Bewegung des ihn induzierenden Magneten oder Stromleiters zu hemmen sucht. Damit war der Zusammenhang zwischen Stromerzeugung und Arbeitsaufwand ausgesprochen. Um z. B. durch die Annäherung eines Magneten an einen Leiter in diesem einen Strom hervorzurufen, war die Überwindung der hemmenden Wirkung für die von dem Magneten zurückgelegte Strecke, mit anderen Worten der Aufwand einer gewissen Arbeit, erforderlich. Das Maximum der Arbeit ist in diesem Falle offenbar zu leisten, wenn man den Magneten aus größtmöglicher Entfernung an den Leiter heranbringt. Dieses Maximum an Arbeit wird als das Potential des Leiters in bezug auf den Magneten bezeichnet. Wir haben an früherer Stelle gesehen137, wie der Potentialbegriff aus der Newtonschen Gravitationstheorie entsprang und von Green, Gauß und anderen zunächst auf die magnetischen und die elektrostatischen Erscheinungen ausgedehnt wurde. Mit Hilfe der Potentialtheorie gelangte nun auch Neumann zu einem allgemeinen Prinzip für die Induktion. Es gilt für geschlossene lineare Leiter (Drähte) und besagt, daß die in einem solchen zu einem Bogen geschlossenen Leiter induzierte elektromotorische Kraft gleich dem Unterschied der Potentialwerte jenes Leiters bezogen auf den von dem induzierenden Strom durchflossenen Leiter ist. Neumanns Prinzip bestand die experimentelle Prüfung so gut, daß es sich zur Berechnung der verschiedenen Fälle von Induktion verwerten ließ und seine Bedeutung auch heute noch nicht eingebüßt hat.
Zur selben Zeit, als Neumann seine Untersuchungen anstellte, bemühte sich Wilhelm Weber138, ein elektrodynamisches[Pg 110] Grundgesetz zu finden, das das Coulombsche, das Ampèresche und das Gesetz der Induktion in sich begreifen, für das Gebiet der Elektrizitätslehre also eine ähnliche umfassende Bedeutung beanspruchen sollte, wie sie das Newtonsche Gravitationsgesetz für die Mechanik besitzt. Nach Webers Gesetz139 ist die Kraft, die zwei Elektrizitätsmengen auf einander ausüben, nicht nur von ihrer Entfernung, sondern auch von ihrer Geschwindigkeit und von ihrer Beschleunigung abhängig140.
Die Bestimmung der in dem Ausdruck für Webers Gesetz vorkommenden Konstanten (c) führte zu dem überraschenden Ergebnis, daß, wenn die elektrostatische Wirkung durch die elektrodynamische aufgehoben wird, die Geschwindigkeit der Elektrizitätsteilchen nahezu der Geschwindigkeit des Lichtes entspricht. In dieser Erkenntnis war schon der Keim der später von Maxwell entwickelten elektromagnetischen Theorie des Lichtes enthalten. Denn offenbar wies jenes Ergebnis des Weberschen Gesetzes darauf hin, daß zwischen den elektromagnetischen und den optischen Vorgängen ein Zusammenhang besteht.
Webers Gesetz fand nicht diejenige allgemeine Zustimmung, die dem Gesetze Neumanns zuteil wurde. Neuere Forscher, vor allem Helmholtz, haben Einwände gegen das Webersche Gesetz erhoben. Helmholtz hielt es mit dem Prinzip von der Erhaltung der Kraft nicht vereinbar. Weber hat diesen Einwand zu widerlegen gesucht. Da die Anwendung des Weberschen Gesetzes auf besondere Fälle jedoch recht umständliche Rechnungen erforderte und durch Maxwell eine ganz neue Auffassung der elektrischen Erscheinungen aufkam, so verlor das Webersche Gesetz an Interesse, bevor der Streit um seine volle Gültigkeit zum Austrag gebracht war.
Von grundlegender Bedeutung für alle späteren Untersuchungen sind Webers Experimentalarbeiten über die Messung galvanischer Ströme und Widerstände und sein darauf begründetes elektromagnetisches Maßsystem geworden. Bevor wir uns diesen, zum Teil in Gemeinschaft mit Kohlrausch unternommenen Arbeiten Webers zuwenden, sei noch die Fortbildung erwähnt, die etwa ein Jahrzehnt nach der Auffindung des Gesetzes von Neumann die Theorie der Induktion durch Felici141 erfuhr. Felici war der erste, dem es gelang, die Gesetze der durch galvanische Ströme hervorgerufenen Induktion (der Voltainduktion) abzuleiten142. Während Neumann und Weber in der Hauptsache den Weg der mathematischen Analyse beschritten, ging Felici ähnlich wie Ampère von Versuchsergebnissen aus. Aus ihnen suchte er dann eine elementare Formel abzuleiten und sie durch weitere Versuche zu verifizieren. Felici zeigte, daß die Stärke der bei der Unterbrechung oder der Schliessung des galvanischen Stromes induzierten Ströme, wenn alle übrigen Umstände unverändert bleiben, der Kraft der induzierenden Ströme proportional ist. Ferner wies Felici nach, daß in einem Leiter, wenn man ihn aus einer Lage in eine andere bringt, durch einen galvanischen Strom ein ebenso starker Strom induziert wird, als wenn man ihn in der zweiten Lage festhält und den induzierenden galvanischen Strom öffnet oder schließt. Diese und einige andere experimentell gefundene Tatsachen bildeten die Grundlage für die mathematischen Entwicklungen Felicis, bezüglich deren auf die erwähnte Originalabhandlung hingewiesen werden muß143.
Wir kehren zu Wilhelm Weber zurück, als dessen wichtigstes Verdienst die Feststellung der absoluten Maße des elektrischen Stromes zu betrachten ist. Faraday hatte zum Messen der absoluten Stromintensität die in seinem Voltameter stattfindende Abscheidung von Knallgas benutzt. Weber bediente sich dazu einer von ihm konstruierten Tangentenbussole144. Sie bestand aus[Pg 112] einem Kupferring von etwa 20 cm Durchmesser. Der Reif war unten aufgeschnitten. Die so erhaltenen Enden wurden mit den nach unten geführten Leitungsdrähten verbunden. Bei dieser Form wirkte nur der kreisförmige Teil der Leitung auf die Magnetnadel. Letztere befand sich in der Mitte des Ringes auf einer Holzplatte. Es ergab sich, daß aus der Länge des wirksamen Leitungsdrahtes, seiner Entfernung r von der Nadel und der Ablenkung der letzteren eine absolute Bestimmung der Intensität des galvanischen Stromes gewonnen werden konnte145. Weber machte von seinem Apparate sofort zwei wichtige Anwendungen. Zunächst verglich er die Stromstärken der damals gebräuchlichen galvanischen Elemente von Daniell, Grove und Bunsen. Als absolute Intensität des von Weber untersuchten Groveschen Elementes ergab sich der Wert 270,5. Für das Daniellsche Element erhielt er 173,5 und für das Bunsensche 184,5.
Eine zweite Anwendung bestand darin, daß Weber die Wärmewirkung des galvanischen Stromes messend untersuchte und auf diese Weise zur Gewinnung von Daten über die Äquivalenz der Naturkräfte beitrug. Welche Wichtigkeit solche Daten für die Aufstellung[Pg 113] des Prinzips von der Erhaltung der Kraft gewinnen sollten, konnte Weber damals freilich noch nicht wissen. Der Gang der Untersuchung war folgender. Ein Platindraht von bestimmter Länge und Dicke wurde in Wasser getaucht und mit einem galvanischen Element in Verbindung gesetzt. Die absolute Intensität des durch den Draht geleiteten Stromes wurde mit der Tangentenbussole gemessen. Ferner wurde die Temperaturerhöhung ermittelt, welche das Wasser durch die Wärmeabgabe des vom Strome durchflossenen Drahtes innerhalb einer bestimmten Zeit erfuhr. Es ergab sich, daß ein Strom von der Intensität 1 in einer Minute soviel Wärme lieferte, daß die Temperatur von 1 g Wasser um 1,4° Celsius stieg.
In einer zweiten Untersuchung vom Jahre 1840 stellte Weber sich die wichtige Aufgabe146, zu bestimmen, wieviel Milligramm Wasser ein Strom von der Intensität 1 in der Sekunde zersetzt.
Faraday hatte gefunden, daß chemisch äquivalente Mengen verschiedener Stoffe zu ihrer Zersetzung gleiche Elektrizitätsmengen gebrauchen. So zersetzte beispielsweise derselbe Strom, der 9 g Wasser zerlegte, 36,5 g Chlorwasserstoff. Es schien keinem Zweifel zu unterliegen, daß die zersetzte Menge eines Stoffes zu der für die Zersetzung erforderlichen Elektrizitätsmenge in einem bestimmten Verhältnis stehe. Weber stellte sich die Aufgabe, dies Verhältnis für das Wasser zu ermitteln. Er fand, um das Resultat vorwegzunehmen, daß ein Strom von der im elektromagnetischen Maße gemessenen Intensität 1 in der Sekunde 0,009376 mg Wasser zersetzt. Für die Minute ergab sich die Menge von 0,56256 mg Wasser, dem 1,0489 ccm Knallgas entsprechen.
Die Stromintensität in absolutem Maße definierte Weber folgendermaßen: Geht eine gewisse Elektrizitätsmenge in der Sekunde durch den Querschnitt eines Leiters, der in der Ebene die Fläche 1 umkreist, so ist diese Elektrizitätsmenge als absolute Einheit zu setzen, wenn sie dieselbe Fernwirkung hervorruft wie das absolute Grundmaß des freien Magnetismus. Hiermit war zum ersten Male die Einheit einer Elektrizitätsmenge in elektromagnetischem Maße definiert.
Das Verfahren, das Weber zur Ermittlung des elektrochemischen Äquivalentes einschlug, war ein ganz eigenartiges und neues. Es führte ihn zur Erfindung des für feinere Messungen besonders[Pg 114] geeigneten Bifilargalvanometers. Ein mit Seide umsponnener Kupferdraht von bestimmter Länge147 wurde auf einer zylindrischen Rolle von bestimmtem Durchmesser148 so aufgewunden, daß alle Windungen149 ein System konzentrischer Kreise bildeten. Durch Multiplikation des Flächeninhalts eines solchen Kreises mit der Zahl der Windungen erhielt Weber die Größe der in der Ebene vom Strom umkreisten Fläche150. Sie sei mit S bezeichnet. Die Rolle wurde an zwei Fäden (bifilar) parallel zum magnetischen Meridian des Beobachtungsortes aufgehängt. Das Verfahren bestand darin, daß derselbe Strom, der das Wasser zersetzte, durch die Rolle geleitet wurde. Die Kraft des horizontalen Teils des Erdmagnetismus äußert das Bestreben, die Rolle senkrecht zur Ebene des magnetischen Meridians zu stellen. Die Horizontalintensität des Erdmagnetismus (T) ruft jedoch nur eine Ablenkung (C) hervor, da die Rolle infolge der Art ihrer Aufhängung in ihre ursprüngliche Lage mit einer gewissen Direktionskraft (D) zurückzukehren strebt. In der zwischen diesen Größen obwaltenden Beziehung
S T G = D tg φ
in welcher G die absolute Intensität des galvanischen Stromes bedeutet, sind alle Größen außer G bekannt. Die absolute horizontale Intensität des Erdmagnetismus (T) z.B. betrug an dem Ort und zur Zeit der Versuche 1,702. Aus fünf Messungen, deren Ergebnisse nur sehr wenig voneinander abwichen, erhielt Weber, wie oben erwähnt, als elektrochemisches Äquivalent des Wassers den Wert 0,009376, d. h. die absolut gemessene Einheit des galvanischen Stromes zersetzt in der Sekunde 0,009376 mg Wasser. Weber bediente sich, wie alle hier gegebenen Zahlen beweisen, für seine Messungen ebenso wie Gauß der Sekunde, des Milligramms und des Millimeters als Einheiten (Millimeter-Milligramm-Sekunden-System). Später ist man jedoch zu größeren Einheiten (Zentimeter-Gramm-Sekunden-System oder, kürzer ausgedrückt, CGS-System) übergegangen. Die Bestimmung des elektrochemischen Äquivalents der absoluten Einheit der Stromstärke ist von Bunsen und von Joule wiederholt worden. Die Übereinstimmung mit dem von Weber gefundenen Resultat war eine fast vollkommene. Der Wert betrug nämlich
nach Bunsen | 0,00927 mg |
nach Joule | 0,00923 mg |
und nach Weber | 0,00937 mg. |
Aus dem von Weber für seine Bestimmung des elektrochemischen Äquivalents konstruierten Bifilargalvanometer ging übrigens als einer der wichtigsten Meßapparate, der zahlreichen späteren Konstruktionen zugrunde lag, Webers Elektrodynamometer hervor. Es besteht, wie die Abbildung 26 erkennen läßt, aus der bekannten (s. S. 114) bifilar aufgehängten, beweglichen Rolle und einer feststehenden Multiplikatorrolle. Der Apparat wird so eingestellt, daß die Ebenen der Rollen senkrecht zueinander stehen und die Ebene der Multiplikatorrolle mit der Ebene des magnetischen Meridians zusammenfällt. Der zu messende Strom wird so durch beide Rollen geführt, daß er die Bifilarrolle in die Ebene der Multiplikatorrolle einzustellen sucht. Dieser elektrodynamischen Kraft wirkt das durch die Bifilaraufhängung ausgeübte Moment entgegen. Man kann also aus der durch Spiegelablesung gefundenen Ablenkung das elektrodynamische Drehungsmoment berechnen.
Die weiteren Bemühungen Webers liefen darauf hinaus, auch den Leitungswiderstand nach absolutem Maße zu bestimmen151. Als den Widerstand 1 bezeichnete Weber den Widerstand einer Kette, in welcher die Einheit der elektromotorischen Kraft einen Strom von der absoluten Intensität 1 hervorruft. Webers Methode bestand darin, daß er mit Hilfe des von ihm erfundenen Erdinduktors einen Strom durch eine der Komponenten der erdmagnetischen Kraft induzierte. Darauf wurde die absolute Intensität dieses Stromes ermittelt und der Widerstand der Kette berechnet.
Gemeinsam mit Kohlrausch stellte Weber noch eine Untersuchung an »Über die Elektrizitätsmenge, welche bei galvanischen Strömen durch den Querschnitt der Kette fließt«152. In dieser Abhandlung findet sich die wichtige Zurückführung der elektrischen Einheit auf absolutes mechanisches Maß. Unter Verwertung des von Gauß für absolute magnetische Messungen ins Leben gerufenen Milligramm-Millimeter-Sekundensystems wird als Einheit der Elektrizität diejenige in einem Punkte konzentrierte Elektrizitätsmenge festgesetzt, die eine andere, gleich große und gleichfalls in einem Punkte befindliche Elektrizitätsmenge gleicher Art in der Entfernung von einem Millimeter mit einer Kraft abstößt, welche der Masseneinheit (1 mg) in einer Sekunde die Geschwindigkeit von 1 mm erteilt. Die Aufgabe, die sich Weber und Kohlrausch stellten, bestand darin, für einen gegebenen, konstanten Strom zu ermitteln, wie die Elektrizitätsmenge, die bei einem solchen Strom in einer Sekunde durch den Querschnitt fließt, sich zu jener, soeben als Einheit definierten Elektrizitätsmenge verhält.
Wir mußten uns mit den elektrodynamischen Untersuchungen Webers etwas eingehender beschäftigen, weil sie die Grundlage für das heute in der Wissenschaft wie in der Technik übliche elektrische Maßsystem gebildet haben. Auf einem internationalen Kongreß, der 1881 in Paris stattfand, wurde Webers System von allen Kulturvölkern angenommen. Man zog es jedoch vor, sich des Zentimeters, des Gramms und der Sekunde zu bedienen, während Weber mit dem Millimeter, dem Milligramm und der Sekunde gerechnet hatte. Seit dem Jahre 1881 wird die Einheit der Stromstärke als Ampère, die Einheit der elektromotorischen Kraft als Volt und die Einheit des Widerstandes als Ohm bezeichnet.
Nach Webers Vorstellung ist die Elektrizität ein Fluidum, dessen Mengenverhältnisse sich bestimmen lassen. Die Stromintensität hängt nach ihm von der Elektrizitätsmenge ab, die in einer bestimmten Zeit durch den Querschnitt der Kette fließt. Diese Vorstellung wurde aufgegeben, nachdem Maxwell die Lehre entwickelt hatte, daß die elektrischen und die magnetischen Erscheinungen wie das Licht durch transversale Schwingungen des Äthers verursacht werden. Es ist indessen ein lehrreiches Beispiel[Pg 117] für den häufigen und raschen Wechsel der Theorien, daß Webers materialistische Vorstellung von dem Wesen der Elektrizität jetzt wieder zu Ehren kommt, nachdem sich während des letzten Jahrzehnts der Begriff der Elektronen153 entwickelt hat, aus deren Bewegungen nach den heutigen Vorstellungen die elektrischen Erscheinungen wieder in atomistischem Sinne erklärt werden. Wir sehen, nicht auf den wandelbaren Theorien, sondern in der Entdeckung und Verknüpfung der Tatsachen beruht der sichere Besitz der Wissenschaft.
Wir haben in den letzten Abschnitten die Richtung, welche die Physik um die Zeit vor der Entdeckung des Energieprinzips verfolgte, kennen gelernt. Auch sind wir mit den Methoden, deren sich diese Wissenschaft in der neueren Zeit zu ihrem Ausbau bediente, wenigstens durch einige Beispiele von besonderer Fruchtbarkeit bekannt geworden. Wir wenden uns jetzt der weiteren Entwicklung der Chemie zu, die zwar in der Hauptsache ihre eigenen Ziele verfolgte, aber gerade auf dem Gebiete der elektrischen Erscheinungen zur Physik in immer engere Fühlung trat. Ihre wichtigste Aufgabe erblickte die Chemie in dieser Periode darin, die auf dem Gebiete der anorganischen Verbindungen entstandenen Methoden und Begriffe auf die Erzeugnisse des Tier- und Pflanzenkörpers auszudehnen. Neben der allgemeinen und der anorganischen entstand infolgedessen als ein besonderer Wissenszweig die organische Chemie. Ihre Begründung ist trotz aller anerkennenswerten Mitwirkung der übrigen Nationen eine vorwiegend deutsche Geistestat.
Man hatte schon im 18. Jahrhundert eine Anzahl wohl charakterisierter organischer Verbindungen kennen gelernt und erkannt, daß die organischen Substanzen aus denselben Elementen bestehen, die sich an der Bildung anorganischer Verbindungen beteiligen. Auch die quantitative Analyse der organischen Verbindungen läßt sich bis in das 18. Jahrhundert zurückverfolgen.
Das älteste Verfahren, um über die Zusammensetzung von Stoffen des Tier- und Pflanzenreiches Aufschluß zu erlangen, bestand in der trockenen Destillation und in der Untersuchung der hierbei auftretenden Produkte. Lavoisier verfuhr dagegen in der Weise, daß er den zu analysierenden Körper in Sauerstoff verbrannte und ihn dadurch in Verbindungen von bekannter Zusammensetzung[Pg 119] (Wasser und Kohlendioxyd) überführte, deren Menge er zwar zu bestimmen suchte, ohne jedoch hinlänglich genaue Ergebnisse zu erhalten. An die Stelle der durch Quecksilber abgesperrten Glocke Lavoisiers trat später die Verbrennungsröhre, in welcher die zu untersuchende Substanz mit Sauerstoff abgebenden Mitteln, wie Kaliumchlorat oder Kupferoxyd, erhitzt wurde. Ihre Vollendung erhielt dies Verfahren durch Liebig. Sein zur Bestimmung des Kohlendioxyds geschaffener Kugelapparat154 ist das Symbol der organischen Chemie geworden.
Wie zur Elementaranalyse, so hat Lavoisier auch zur ersten Theorie der organischen Verbindungen den Anstoß gegeben. In dem chemischen Lehrgebäude Lavoisiers spielte bekanntlich der Sauerstoff die wichtigste Rolle. Denjenigen Bestandteil einer Verbindung, der nach Abzug des Sauerstoffes übrig bleibt, nannte Lavoisier die Basis oder das Radikal der Verbindung. Für die einfacheren anorganischen Verbindungen ergab sich in der Regel, daß dieses Radikal ein Element ist, während es bei den dem Tier- und Pflanzenreich entstammenden Substanzen aus zwei oder mehr Grundstoffen besteht. Eine wesentliche Stütze erhielt die Ansicht Lavoisiers, als Gay-Lussac in dem Cyan eine Gruppe von zwei Elementen erkannte, die in einer größeren Anzahl von Verbindungen die Rolle eines Elementes spielt und selbst im freien Zustande erhalten werden kann. Allerdings erkannte man später, daß die Radikale nicht eigentlich isoliert werden können, weil sie in den Verbindungen nicht vorhanden, sondern nur hypothetischer Natur sind. Die scheinbar im freien Zustande erhaltenen Radikale besaßen nämlich nicht etwa die Affinitäten, welche sie in den Verbindungen zur Geltung brachten, sondern sie erwiesen sich als gesättigte Verbindungen und zwar als den hypothetischen Radikalen polymere Körper. So war z. B. das isolierte Cyan nicht etwa N≡C, sondern in Wirklichkeit Dicyan (N≡C-C≡N).
Für die aus dem Ammoniak entstehenden Salze hatte man schon im Jahre 1816 das zusammengesetzte, den Metallen Kalium und Natrium entsprechende Radikal Ammonium (NH4) angenommen, eine Anschauung, die sich jedoch erst viel später Geltung zu verschaffen vermochte.
Als die eigentlichen Schöpfer der Radikaltheorie sind Liebig und Wöhler zu bezeichnen. In einer gemeinschaftlichen Arbeit[Pg 120] über die Benzoësäure155 suchten beide Forscher darzutun, daß eine Anzahl aus dem Bittermandelöl darstellbarer Verbindungen, darunter die Benzoësäure, ein aus drei Elementen bestehendes Radikal enthalten, von denen das eine Sauerstoff ist. Der seit Lavoisier festgehaltene Gesichtspunkt, nach dem dieses Element den Radikalen gegenüber eine besondere Stelle einnimmt, wurde infolgedessen aufgegeben. Dafür hatte aber die organische Chemie, die ihre Hauptaufgabe zunächst in der Zurückführung der stetig wachsenden Schar der Verbindungen auf unveränderliche Atomgruppen erblickte, einen gewaltigen Impuls empfangen, so daß Berzelius von jener Abhandlung der beiden deutschen Forscher wohl sagen durfte, daß sie für die Chemie der Kohlenstoffverbindungen den Anfang eines neuen Tages ankünde.
»Wenn es gelingt«, beginnen Liebig und Wöhler, »in dem dunklen Gebiete der organischen Natur auf einen lichten Punkt zu treffen, der uns wie einer der Eingänge erscheint, durch die wir vielleicht auf die wahren Wege zur Erforschung und Erkennung dieses Gebietes gelangen können, so hat man immer Ursache sich Glück zu wünschen«. Dieses Zagen gegenüber der Größe der gestellten Aufgabe ist begreiflich, wenn man bedenkt, daß Wöhler nur wenige Jahre vorher die erste Synthese einer organischen Verbindung gelungen war156.
Als Ausgangspunkt für ihre Untersuchung wählten beide Forscher das neben der Blausäure und einem fetten Öle in den bitteren Mandeln enthaltene ätherische Öl, dem man den Namen Bittermandelöl beigelegt hat. Man hatte beobachtet157, daß diese Verbindung an der Luft unter Sauerstoffaufnahme in die schon länger bekannte Benzoësäure übergeht. Und gerade die Tatsache, daß letztere »aus den anscheinend verschiedensten Körpern zu entstehen vermag«, fesselte das Interesse der beiden Forscher in hohem Grade.
Zunächst stellten sie reines, von Benzoësäure und anderen Beimengungen völlig freies Bittermandelöl her. Dieses verwandelte sich unter der Einwirkung von Sauerstoff vollständig in kristal[Pg 121]lisierte Benzoësäure. Auffallend war, daß diese Umwandlung durch Sonnenlicht erheblich beschleunigt wurde. Um der Beziehung zwischen Bittermandelöl und Benzoësäure auf die Spur zu kommen, war das nächste eine genaue Analyse beider Verbindungen. Zu diesem Zwecke wurden die Substanzen in der Verbrennungsröhre mit Kupferoxyd erhitzt und so in Kohlendioxyd und Wasser verwandelt. Die Analysen wurden mit der größten Sorgfalt unter Anwendung mancher Verbesserungen des bisher üblichen Verfahrens ausgeführt158. Es ergab sich für das Bittermandelöl, daß es die Elemente Kohlenstoff, Wasserstoff und Sauerstoff in einem Verhältnis enthält, das der Formel C7H6O (= C6H5.COH) entspricht, während die Benzoësäure ein weiteres Atom Sauerstoff enthält. Ihre Zusammensetzung fand also durch die Formel C7H6O2 ihren Ausdruck (C6H5COOH).
Den in beiden Verbindungen enthaltenen Bestandteil C7H5O (= C6H5CO) bezeichneten Liebig und Wöhler als das Radikal der Benzoësäure und legten ihm den Namen Benzoyl bei. Das Bittermandelöl erschien ihnen also als die Wasserstoffverbindung dieses Radikals, als Benzoylwasserstoff (C7H5O.H = C6H5COH).
Das Bittermandelöl gehört zur Gruppe der Aldehyde, für welche wenige Jahre später (1835) Liebig in dem Acetaldehyd, dem Aldehyd schlechtweg, das Prototyp erkannte. Das Hauptkennzeichen der Aldehyde, die eine Mittelstellung zwischen den Alkoholen, deren erste Oxydationsprodukte sie sind, und den Säuren einnehmen, besteht eben, wie der Benzaldehyd (das Bittermandelöl) und der Acetaldehyd zeigten, in ihrer Fähigkeit, unter Sauerstoffaufnahme in die entsprechenden Säuren, in diesen Fällen Benzoësäure und Essigsäure, überzugehen (C6H5COH + O = C6H5COOH; CH3COH + O = CH3COOH).
Die weiteren Bemühungen Liebigs und Wöhlers liefen darauf hinaus, das Benzoyl als Bestandteil einer großen Zahl aus dem Bittermandelöl darstellbarer Verbindungen nachzuweisen. Leiteten sie z. B. in das Bittermandelöl trocknes Chlor, so wurde dieses Gas unter starker Erhitzung und Entwicklung von Chlorwasserstoff absorbiert, und es bildete sich Chlorbenzoyl (C6H5COH + 2Cl = HCl + C6H5COCl). Auch diese Verbindung ist typisch geworden, seitdem es gelungen, andere Säurechloride durch die Einwirkung von Phosphorpentachlorid auf die organischen Säuren in großer Anzahl herzustellen.
An das Chlorbenzoyl reihten Liebig und Wöhler die völlig analogen Verbindungen ihres Radikals mit Brom, Jod und Cyan. Leiteten sie über Chlorbenzoyl getrocknetes Ammoniakgas, so entstand unter gleichzeitiger Bildung von Chlorwasserstoff Benzamid (C6H5COCl + NH3 = HCl + C6H5CO.NH2) als eine Verbindung von Benzoyl mit der Amidogruppe (NH2).
Das Benzoyl erwies sich somit als ein aus drei Elementen bestehendes Radikal, das sich bei zahlreichen damit vorgenommenen Umsetzungen wie ein Element verhielt. Berzelius, welcher die Ergebnisse der beiden deutschen Chemiker für die wichtigsten bisher auf dem Gebiete der organischen Chemie gewonnenen erklärte, schlug deshalb vor, zur Vereinfachung der Formelsprache dem Benzoyl, sowie den übrigen entdeckten oder noch zu entdeckenden Radikalen besondere Zeichen zu geben.
Die Untersuchung über das Bittermandelöl, die nicht nur die Theorie gefördert, sondern viele neue Verbindungen und Darstellungsweisen kennen gelehrt hat, wurde für die zeitgenössischen Forscher vorbildlich. Bevor wir uns weiteren Arbeiten zuwenden, die sich auf diese Untersuchung aufbauten oder zu ihr in Beziehung standen, wollen wir die beiden großen Forschergestalten, denen wir jene grundlegende Abhandlung verdanken, etwas näher ins Auge fassen159.
Justus Liebig wurde am 12. Mai 1803 in Darmstadt geboren. Sein Vater betrieb dort die Herstellung und den Verkauf von Farbstoffen, Firnissen, Lacken und dergleichen und fand an dem Sohne frühzeitig einen eifrigen Gehilfen. Liebigs Sinn für die experimentellen Wissenschaften wurde ferner dadurch genährt, daß er schon im Knabenalter die chemischen Schriften der Darmstädter Hofbibliothek las und die in diesen Schriften beschriebenen[Pg 123] Versuche nachprüfte. Daß Liebig darüber seine Gymnasialstudien vernachlässigte und von seinen Lehrern für unbegabt gehalten wurde, ist eine Tatsache, die man oft angeführt hat, um den so häufigen Widerspruch zwischen dem Schulbetrieb und den Forderungen der Wirklichkeit zu erhärten. Als Liebig von dem ungehaltenen Lehrer gefragt wurde, was er denn eigentlich werden wolle, gab er zur Antwort: ein Chemiker! und erregte dadurch das spöttische Gelächter des Lehrers und der ganzen Klasse. Die einzige Möglichkeit sich für den gewählten Beruf vorzubilden, bestand in Deutschland damals darin, daß Liebig bei einem Apotheker in die Lehre trat. Um die weitere Ausbildung erwarb sich sein Landesherr ein großes Verdienst. Dieser, der Großherzog Ludwig I. von Hessen, war nämlich auf den jungen Liebig aufmerksam geworden, als er in den chemischen Schriften der Hofbibliothek herumstöberte. Er war es, der ihm die Mittel aussetzte, um in Bonn und später in Erlangen Naturwissenschaften zu studieren und die begonnenen Studien und Arbeiten in Paris fortzusetzen.
In Erlangen, wo damals Schelling lehrte, geriet Liebig unter den Einfluß der deutschen Naturphilosophie, von der er später sagte, sie trage ihren Namen sehr mit Unrecht. Dieser Richtung, fügte er mit beißendem Spott hinzu, die darin bestehe, ohne gründliche Forschung sich Rechenschaft von den Erscheinungen der Natur zu geben, werde es an Jüngern nicht fehlen, so lange ein Schaffen, das nicht auf Mühe und Anstrengung beruhe, Aufmunterung und Anerkennung finde. Auch er habe diese an Worten und Ideen so reiche, an wahrem Wissen und gediegenen Studien so arme Periode mit durchgemacht, sie habe ihm zwei kostbare Jahre seines Lebens geraubt. Liebig wurde von dieser Verirrung erst ganz geheilt, als er im Jahre 1822 die Wissenschaft dort aufsuchte, wo sie damals frisch und unverfälscht sprudelte, nämlich in Paris. Hier brachte er eine schon vor seiner Studienzeit beginnende Untersuchung über das Knallsilber zum Abschluß und machte sie der Akademie der Wissenschaften bekannt. Zu Beginn des 19. Jahrhunderts hatte man durch Behandeln von Quecksilber oder Silber mit Alkohol und Salpetersäure eigentümliche Metallpräparate kennen gelernt, deren nähere Untersuchung durch die Explodierbarkeit dieser Körper sehr erschwert wurde. Diese Schwierigkeit bildete für den jungen Liebig einen besonderen Anreiz. Er vermochte die sich widersprechenden Angaben anderer Chemiker zu widerlegen, indem er zeigte, daß jene Präparate die Salze einer in der Folge als Knallsäure be[Pg 124]zeichneten Verbindung sind, deren genauere Zusammensetzung er im Verein mit Gay-Lussac (1824) ermittelte. Letzterer sowohl wie Alexander von Humboldt waren durch Liebigs an die Akademie gerichtete Mitteilung über die bisherigen Ergebnisse seiner Untersuchung der knallsauren Verbindungen auf den genialen jugendlichen Forscher aufmerksam geworden und ebneten ihm seitdem die Wege. Zur Gunst und zum Verdienst gesellte sich bei Liebig der Zauber einer eigenartigen Persönlichkeit. Eine schlanke Gestalt, ein freundlicher Ernst in den regelmäßigen Gesichtszügen, große braune Augen mit dunklen Brauen, sowie vor allem eine bestrickende Liebenswürdigkeit nahmen auf den ersten Blick für ihn ein160. Dazu gesellte sich eine Wahrheitsliebe, die ihn jeden etwa selbst begangenen Irrtum ohne Zögern eingestehen hieß. Die Liebe seiner Schüler gewann er vor allem dadurch, daß er stets geneigt war, ihnen persönlich näher zu treten. Zeichnete sich jemand unter ihnen durch Hingabe an die Wissenschaft aus, so wurde das Verhältnis des Lehrers zu dem Lehrenden bald ein freundschaftliches.
Dem Einfluß Alexanders von Humboldt war es vor allem zu danken, daß Liebig, nachdem er seine Untersuchungen im Laboratorium Gay-Lussacs abgeschlossen hatte, schon mit 21 Jahren und nach Überwindung mancher, aus altem Herkommen entsprungener Schwierigkeiten Professor an der Universität Gießen wurde. Hier entstand nach seinen Plänen das erste chemische Laboratorium in Deutschland und eine Schule, welche diesem Lande eine führende Rolle auf dem Gebiete der chemischen, insbesondere der organisch-chemischen Forschung bis auf den heutigen Tag gesichert hat. »Ein eigentlicher Unterricht«, schrieb Liebig später161, »bestand nur für die Anfänger. Meine Schüler lernten nur im Verhältnis zu dem, was sie mitbrachten. Ich gab die Aufgaben und überwachte die Ausführung. Eine einheitliche Anleitung gab es nicht; ich empfing von jedem einzelnen jeden Morgen einen Bericht über das, was er am vorhergehenden Tage getan, sowie seine Absichten über das, was er vorhatte. Ich stimmte bei oder machte Einwendungen. Jeder war genötigt, seinen eigenen Weg zu suchen«. Das ist die wahre akademische Freiheit, welche Liebig, dessen hervorstechendster Zug Anregung zur Selbsttätig[Pg 125]keit gewesen ist, hier gepredigt und geübt hat. Wissenschaftlich reif werden, heißt ihre Losung. Und daß sich zahlreiche Jünger herandrängten und im Geiste Liebigs weiterarbeiteten, hat der Chemie in wenigen Jahrzehnten jene außerordentliche, sich über alle Gebiete der übrigen Naturwissenschaften und der Praxis erstreckende Bedeutung gegeben, die sie heute besitzt. Von dem Wesen seiner Wissenschaft suchte Liebig auch in dem gebildeten Laien eine Vorstellung zu erwecken. Dies geschah durch seine chemischen Briefe, ein Werk, das zu dem Besten zählt, was je auf dem Gebiete der populär-wissenschaftlichen Literatur geschaffen wurde, und das auch heute noch gelesen zu werden verdient162.
In Gießen wirkte Liebig fast drei Jahrzehnte. Die glänzenden Anerbietungen, die ihm von anderen Universitäten gemacht wurden, schlug er aus, um sich seinem engeren Vaterlande für das Entgegenkommen, das man ihm durch die Gewährung mancher Hilfsmittel bewiesen hatte, dankbar zu erweisen. Endlich folgte er (1852) einem Rufe nach München, wo ihm Gelegenheit geboten wurde, ausschließlich seiner wissenschaftlichen Tätigkeit zu leben, ohne sich gleichzeitig der aufreibenden Tätigkeit des von ihm zur höchsten Blüte geführten Laboratoriumsunterrichtes widmen zu müssen. Was er während der letzten Jahrzehnte seines tatenreichen Lebens geschaffen, bleibt späterer Betrachtung vorbehalten. Am 18. April 1873 setzte der Tod dem Wirken des größten deutschen Chemikers ein Ende.
Wenn man die Summe dessen ins Auge faßt, was Liebig auf dem Gebiete der Industrie, des Ackerbaues und der Hygiene geleistet hat, so darf man behaupten, daß kein anderer Gelehrter der Menschheit ein größeres Vermächtnis hinterlassen hat. So lauten die Worte in einem Nachruf, den ihm A. W. Hofmann widmete.
Der einzige Deutsche, der an Liebig auf dem Gebiete der Chemie heranreichte, war Wöhler. Friedrich Wöhler wurde im Jahre 1800 in der Nähe von Frankfurt a. M. geboren. Die Anregung zur Beschäftigung mit chemischen und physikalischen Versuchen empfing er durch einen Privatgelehrten163, mit dem er eine Arbeit über den Gehalt des Eisenkieses an dem kurz vorher[Pg 126] durch Berzelius entdeckten164 Element Selen ausführte. Gleich Mitscherlich, Magnus und anderen deutschen Forschern hat Wöhler nach Beendigung seines medizinischen Studiums zu den Füßen von Berzelius gesessen. Aus dem Berzeliusschen und dem Laboratorium Gay-Lussacs ist die neuere Chemie nach Deutschland gelangt, um dort alsbald die höchste Blüte zu erleben. Es wäre unrecht, wenn wir Deutschen es versäumen wollten, diese Mitwirkung des Auslandes dankbar anzuerkennen. Berzelius öffnete Wöhler gleich den übrigen jungen Forschern, die besonders aus Preußen nach Stockholm kamen, bereitwilligst sein Laboratorium. Im Jahre 1824 kehrte Wöhler nach Deutschland zurück165. Er übernahm die Stelle eines Lehrers der Chemie an einer in Berlin ins Leben gerufenen technischen Lehranstalt, eine Stelle, die er bald darauf mit einer ähnlichen in Cassel vertauschte. Einige Jahre später (1836) erhielt Wöhler eine Professur in Göttingen, wo er bis zu seinem 1882 erfolgten Tode als Lehrer wie als Forscher eine großartige Tätigkeit entfaltete.
Mit Liebig wurde Wöhler durch eine der folgenreichsten Streitfragen bekannt. Liebigs erste Arbeit betraf, wie schon erwähnt, das durch seine explosiven Eigenschaften sehr gefährliche Knallsilber. Kurz vorher hatte Wöhler das völlig harmlose zyansaure Silber untersucht. Als Liebig die Analysen beider Salze verglich, stellte sich heraus, daß diese grundverschiedenen Verbindungen völlig gleich zusammengesetzt sind. Da ein Irrtum, den Liebig anfangs vermutete, nicht vorlag, so mußte der bis dahin geltende Grundsatz, daß Stoffe von einer qualitativ und quantitativ gleichen Zusammensetzung identisch seien, aufgegeben werden. Die neue Erscheinung wurde nach dem Vorschlage von Berzelius als Isomerie bezeichnet und aus einer Verschiedenheit in der Anordnung der Atome erklärt166. Damit war die Frage nach[Pg 127] der Konstitution der organischen Verbindungen, die eine Triebfeder für alle weiteren Forschungen auf diesem Gebiete werden sollte, in den Vordergrund gerückt.
Wöhlers Untersuchungen über die Cyansäure führten bald darauf zu einer Entdeckung von solcher Bedeutung, daß man mit ihr wohl die wissenschaftliche organische Chemie anheben läßt. Bis zum Jahre 1828 herrschte die Ansicht, daß die Verbindungen des Tier- und Pflanzenreiches nur unter der Mitwirkung einer besonderen, zu den Kräften der anorganischen Natur in einem gewissen Gegensatze stehenden Lebenskraft gebildet werden könnten. Berzelius hatte noch im Jahre 1827 die organische Chemie als die Wissenschaft von denjenigen Stoffen bezeichnet, die unter dem Einfluß der Lebenskraft entständen. Ein Jahr später konnte Wöhler an ihn schreiben: »Ich muß Ihnen erzählen, daß ich Harnstoff machen kann, ohne dazu Nieren oder überhaupt ein Tier nötig zu haben«. Dieser ersten organischen Synthese, die in einer intramolekularen Umwandlung des aus anorganischen Substanzen aufgebauten cyansauren Ammoniums in Carbamid oder Harnstoff167 bestand, hat sich später die Darstellung einer großen Anzahl von organischen Substanzen angeschlossen. Infolgedessen ist der Glaube an eine besondere Lebenskraft der Überzeugung gewichen, daß die Umsetzungen in den Organismen von denselben Regeln beherrscht werden, wie die leichter unserem Verständnis sich erschließenden Vorgänge in der anorganischen Natur, so daß einer einheitlichen Auffassung des gesamten Geschehens auch durch die neuere Chemie vorgearbeitet wurde.
In dem cyansauren Ammonium (CNO.NH4) und dem Carbamid
lag überdies ein neuer Fall von Isomerie vor. Berzelius entdeckte bald darauf (1830) die völlig gleiche Zusammensetzung der Weinsäure und der Traubensäure. Er war es auch, der als besondere Fälle der Isomerie die Polymerie und die Metamerie unterschied. Gasdichtebestimmungen hatten nämlich zu dem Schlusse geführt, daß mitunter zwei oder mehr Verbindungen[Pg 128] bei gleicher prozentischer Zusammensetzung eine Verschiedenheit in der Größe des Moleküls, d. h. in der Zahl der in dasselbe eintretenden Atome aufwiesen, während in anderen Fällen die gleiche Dampfdichte erkennen ließ, daß auch dieser Unterschied im Aufbau fortfiel. Die isomeren Verbindungen von gleichem Molekulargewicht wurden von Berzelius als metamer, die übrigen als polymer bezeichnet.
Die späteren Arbeiten Wöhlers betrafen insbesondere das Gebiet der anorganischen und der technischen Chemie. Sie können daher in diesem Abschnitt, der sich mit der Begründung der organischen Chemie beschäftigt, nicht näher betrachtet werden. Erwähnt sei nur, daß Wöhler die Darstellung des Aluminiums (1827) lehrte168 und eingehende Untersuchungen über Silicium und Titan anstellte. Diese Untersuchungen führten ihn zu der Erkenntnis, daß Silicium und Titan zusammen mit dem Kohlenstoff eine wohl charakterisierte Gruppe von Elementen bilden.
Die Führerschaft auf dem Gebiete der organischen Chemie übernahm Liebig, der nach Beendigung der mit Wöhler gemeinsam verfaßten Arbeit über das Bittermandelöl sich eine Reihe von Jahren mit der Erforschung der organischen Säuren, insbesondere der Milchsäure, der Äpfel- und der Harnsäure beschäftigte. Die reifste Frucht dieser Untersuchungen war Liebigs 1838 veröffentlichte Abhandlung über die Konstitution der organischen Säuren169.
Nach der von Lavoisier aufgestellten und von Berzelius angenommenen Lehre sollte der Charakter der Säuren durch ihren Gehalt an Sauerstoff bedingt sein. Berzelius hatte für die Salze anorganischer und später auch für die Salze organischer Säuren gefunden, daß der Sauerstoffgehalt des Metalloxyds und des mit letzterem zu neutralem Salz vereinigten Säureanhydrids in einem einfachen, für die verschiedenen Salze der nämlichen Säure konstanten Verhältnis steht. Diese Entdeckung wurde erweitert durch die Schlüsse, die Graham170 aus seiner Untersuchung über die[Pg 129] Phosphorsäure zog. Graham zeigte an dieser Säure, daß ihr Anhydrid sich zwar stets mit einer bestimmten Menge Metalloxyd verbindet, daß dies aber nicht in einem, sondern in mehreren Verhältnissen geschieht. An der Phosphorsäure wurde auf diese Weise der Begriff einer mehrbasischen Säure entwickelt. Die Sättigungskapazität einer solchen Säure war verschieden und zwar erwies sich die Sättigungskapazität abhängig von dem zur Konstitution der Säure gehörenden, sogenannten »basischen« Wasser (P2O5.H2O = 2HPO3; P2O5.2H2O = H4P2O7; P2O5.3H2O = 2H3PO4). Das basische Wasser wurde nach dieser Auffassung bei der Salzbildung durch äquivalente Mengen von Metalloxyden ersetzt.
Auf dieser Arbeit Grahams baute Liebig weiter. »Wir schreiben«171, führte er aus, »einem Molekül Phosphorsäureanhydrid (P2O5) die Fähigkeit zu, sich mit mehr als einem Molekül Basis verbinden zu können«. Dasselbe gelte für die Arsensäure und neun von ihm untersuchte organische Säuren. So seien z. B. die Zitronensäure und die Weinsäure hinsichtlich ihrer Basizität der Phosphorsäure ähnlich. Man müsse daher alle Säuren in ein-, zwei- und mehrbasische einteilen.
Liebig erkannte ferner, daß die Acidität der Säuren nicht von ihrem Gehalt an Sauerstoff, sondern von der Zahl der durch Metall ersetzbaren Wasserstoffatome abhängt. Die dualistische Theorie der Säuren, nach welcher diese als Verbindungen von Säureanhydrid mit Wasser aufgefaßt wurden, ließ sich jetzt nicht mehr aufrecht erhalten. Vor allem kämpfte Liebig dagegen, daß man dem Wasser die mannigfaltigsten Eigenschaften zuschreibe und basisches Wasser als Bestandteil der Säuren, Hydratwasser als Bestandteil der Basen, Kristallwasser usw. unterscheide. Dies sei darauf zurückzuführen, daß man eine Schranke zwischen den Haloidsalzen und den Sauerstoffsalzen gezogen habe. Für Liebig war fortan der Wasserstoff das säurebildende Prinzip und er erklärte172: »Säuren sind gewisse Wasserstoffverbindungen, in denen der Wasserstoff durch Metalle vertreten werden kann.« Die Konstitution der Salze sei somit analog derjenigen der Wasserstoffverbindungen, die man Säuren nenne. Diejenigen Körper, die [Pg 130]man bisher als wasserfreie Säuren (z. B. P2O5) bezeichnet habe, erhielten ihre Eigenschaft mit Metalloxyden Salze zu bilden, erst durch das Hinzubringen von Wasser.
Die Grundlage für diese Auffassung der Säuren hatte schon Davy durch einen Vergleich zwischen der Salzsäure und der Schwefelsäure nebst ihren Salzen geschaffen. Jedoch erst Liebig vermochte dieser Auffassung durch seinen auf zahlreiche Säuren sich erstreckenden Vergleich zur allgemeinen Anerkennung zu verhelfen.
Die organischen Verbindungen lassen sich bekanntlich zum größten Teil in zwei Gruppen unterbringen, in die Methanreihe und die Reihe der aromatischen Verbindungen. Der Kohlenwasserstoff, welcher der zuletzt erwähnten Reihe zugrunde liegt, wurde von Faraday im Jahre 1825 entdeckt, als Faraday die beim Zusammenpressen des Leuchtgases entstehende Flüssigkeit untersuchte. Die erste wissenschaftliche Untersuchung dieses Kohlenwasserstoffs, den man heute Benzol nennt, rührt von Mitscherlich her. Wir haben diesen Forscher bereits als einen Bahnbrecher auf dem Gebiete der Mineralchemie kennen gelernt. Mitscherlich veröffentlichte seine Untersuchung über das Benzol173 und dessen Verbindungen im Jahre 1834. Seine Arbeit174 verdient es, daß wir uns mit ihrem Inhalte etwas eingehender befassen.
Als Ausgangspunkt für die Darstellung von Benzol diente Mitscherlich die schon im 17. Jahrhundert bekannt gewordene Benzoësäure. Er unterwarf das Gemenge dieser Säure mit Kalk der Destillation und erhielt eine Flüssigkeit, die sich als identisch mit der von Faraday im Jahre 1825 entdeckten Substanz erwies. Die Benzoësäure war in jene Flüssigkeit und in Kohlendioxyd, das sich mit dem Kalk verbunden hatte, gespalten worden175, ein Weg, der typisch für die Gewinnung von Kohlenwasserstoffen geworden ist. Nach diesem Verfahren lassen sich nicht nur die aromatischen, sondern auch die fettsauren Verbindungen zerlegen. Es sei nur an die Entstehung von Methan aus Essigsäure176 und von Chloroform aus Trichloressigsäure erinnert177.
Das aus der Benzoësäure gewonnene, gereinigte Benzol brachte Mitscherlich zunächst mit metallischem Kalium zusammen. Es zeigte sich, daß letzteres seinen Metallglanz nicht einbüßte, ein Beweis, daß das Benzol keinen Sauerstoff enthält. Seine Analyse ergab, daß es aus etwa 92,5% Kohlenstoff und 7,5% Wasserstoff besteht178. Als eine Eigentümlichkeit, die er als Erkennungsmittel empfahl, hob Mitscherlich hervor, daß das Benzol, mit rauchender Salpetersäure erhitzt, den Geruch nach Bittermandelöl annimmt. Diese Beobachtung führte Mitscherlich zur Darstellung des Nitrobenzols, das er erhielt, wenn er Benzol nach und nach zu erwärmter rauchender Salpetersäure hinzusetzte. Es bildete sich dann unter Ersatz von Wasserstoff durch die Nitrogruppe (NO2) eine neue, bei etwas über 200° siedende, ölige Verbindung:
C6H6 + HNO3 = C6H5NO2 + H2O.
Durch die Entdeckung des Nitrobenzols hat Mitscherlich das große Gebiet der Nitroverbindungen erschlossen. Das Nitrieren, d. h. die Einführung einer oder mehrerer Nitrogruppen durch Behandeln der aromatischen Verbindungen mit Salpetersäure wurde zu einer der am häufigsten ausgeführten Reaktionen. Aus den Nitroverbindungen gingen durch Umwandlung der Gruppe NO2 in die Gruppe NH2 vermittelst geeigneter Reduktionsmittel die Amidoverbindungen hervor, die wiederum zum Ausgangspunkt für zahllose farbige Derivate wurden. Der erste Schritt auf diesem Wege bestand in der Reduktion von Nitrobenzol zu Amidobenzol oder Anilin179: C6H5NO2 + 6H = C6H5NH2 + 2H2O.
Durch Mitscherlichs Arbeit über das Benzol wurde man auch mit dem ersten Körper aus der Gruppe der Azoverbindungen bekannt, die für die Farbenfabrikation gleichfalls von größter Wichtigkeit geworden sind. Mitscherlich erhielt das Azobenzol, als Prototyp einer großen Klasse analog zusammengesetzter Verbindungen, indem er das Nitrobenzol durch Erwärmen mit alkoholischer Kalilauge seines Sauerstoffs beraubte180:
2C6H5NO2 + 8H = C6H5NNC6H5 + 4H2O.
Ein weiterer typischer Vorgang, auf dem sich die Chemie der aromatischen Verbindungen wie auf der Nitrierung im wesentlichen aufgebaut hat, war Mitscherlichs an dem Benzol vollzogene[Pg 132] Sulfonierung. Sie bestand in der Einführung der einwertigen Sulfongruppe HSO3 an Stelle des mit dem Kohlenstoff verbundenen Wasserstoffs und führte zur Entdeckung der Sulfon- oder Sulfosäuren.
Die erste Sulfosäure, die Benzolsulfosäure, stellte Mitscherlich her, indem er zu rauchender Schwefelsäure solange Benzol fügte, wie noch etwas davon aufgenommen wurde:
Es sind damit bei weitem noch nicht sämtliche Derivate berücksichtigt, die Mitscherlich aus dem Benzol ableitete. Wir haben hier vielmehr nur diejenigen Substitutionen betrachtet, welche die Entdeckung ganzer Gruppen von organischen Verbindungen einleiteten. Da es Mitscherlich gelungen war, die Benzoësäure in Kohlendioxyd und einen Kohlenwasserstoff zu zerlegen, so dachte er sich sämtliche organische Säuren entsprechend zusammengesetzt. Dagegen faßten Liebig und Wöhler die Benzoësäure als die Verbindung eines sauerstoffhaltigen Radikals, das sie Benzoyl nannten, mit der Hydroxylgruppe auf. Mit dieser Theorie ließ sich Mitscherlichs Ansicht nicht vereinigen. Erst durch Kolbe, der durch seine Arbeiten über die elektrolytische Zerlegung der Salze der organischen Säuren die Frage nach der Konstitution dieser Körper zu einem gewissen Abschluß brachte, gelangten Mitscherlichs Vorstellungen zu ihrer vollen Würdigung.
Zu den wichtigsten Stützen der Radikaltheorie gehörten neben Gay-Lussacs Arbeit über das Cyan und der Liebig-Wöhlerschen Untersuchung der Benzoylverbindungen Bunsens klassische Forschungen über die Kakodylreihe182. Bevor wir uns mit diesen Forschungen beschäftigen und ihre Bedeutung für die Entwicklung der Chemie zu würdigen suchen, sei dem Lebensgange Bunsens ein kurzer Abschnitt gewidmet. Sind doch seine Verdienste um die Förderung der Chemie in allen ihren Teilen nicht geringer als diejenigen Liebigs und Wöhlers einzuschätzen.
Robert Bunsen183 wurde 1811 in Göttingen geboren, wo sein Vater als Professor der Philologie und als Bibliothekar wirkte. Bunsen studierte in Göttingen, Paris, Wien und Berlin Naturwissenschaften. Seine wichtigsten Studiengebiete waren die Chemie und die Physik. Auf ausgedehnten Reisen widmete sich Bunsen mit Vorliebe mineralogischen und geologischen Studien, sowie dem Besuche gewerblicher Anlagen. Eine Anzahl wichtiger Untersuchungen Bunsens entsprangen den auf diesem Wege gewonnenen Anregungen, so seine Arbeiten über Hochofengase, über die Vorgänge bei der Verbrennung des Schießpulvers, seine Analysen von Mineralien und Mineralwässern, seine Geisertheorie, die er nach einer Bereisung Islands aufstellte, usw.
Ein Lehramt bekleidete Bunsen zuerst an der Gewerbeschule zu Cassel, wo man ihn zum Nachfolger Wöhlers ernannt hatte. Später wirkte er in Marburg und in Breslau. Im Jahre 1852 wurde Bunsen nach Heidelberg berufen. Dort entfaltete er bis zum Jahre 1889 als Forscher und als Lehrer184 eine ganz außerordentliche Fruchtbarkeit. Auf die Bedeutung der sich über einen Zeitraum von fast sechzig Jahren (1830-1887) erstreckenden wissenschaftlichen Tätigkeit Bunsens werden wir an manchen Stellen dieses Bandes zurückkommen.
In seinen ersten Untersuchungen hatte sich Bunsen mit Aufgaben der anorganischen Chemie beschäftigt. Sie betrafen das Arsenik und die Cyanverbindungen des Eisens185. In diesen Arbeiten[Pg 134] liegen die Keime der Untersuchungen über die Kakodylreihe, die Bunsen auf das Gebiet der organischen Chemie führten und ihn sechs Jahre186 beschäftigten. Den Ausgangspunkt für die Kakodylverbindungen bildete eine Flüssigkeit187, die man schon um die Mitte des 18. Jahrhunderts beim Erhitzen eines essigsauren Salzes mit Arsenik erhalten hatte. Diese Flüssigkeit besitzt einen in hohem Grade ekelerregenden Geruch. Sie raucht an der Luft, fängt leicht Feuer und ist sehr giftig. Aus diesem Grunde hatte man sich mit ihrer Erforschung noch wenig beschäftigt. Daß Bunsen sich dieser Aufgabe unterzog, setzte einen nicht geringen Mut voraus, der um so mehr anzuerkennen ist, als Bunsen schon bei der Inangriffnahme seiner Aufgabe durch die Explosion einer Kakodylverbindung188 die Sehkraft des rechten Auges verlor und fast das Leben eingebüßt hätte. Ähnliche Beispiele hatten Davy bei der Untersuchung des Chlorstickstoffs und Liebig bei seinen Experimenten mit der Knallsäure gegeben. Daß die Lösung wissenschaftlicher Aufgaben nicht nur Geduld und Scharfsinn, sondern sehr oft auch das mutige Einsetzen von Gesundheit und Leben erfordert, ist ein Umstand, den man viel zu wenig zu würdigen pflegt.
Zunächst gewann Bunsen aus der »Cadetschen« Flüssigkeit eine Substanz, die er als Alkarsin189 bezeichnete. Die Darstellung des Alkarsins mußte bei vollkommenem Ausschluß der Luft geschehen, da es sich an der Luft sofort entzündet. Das Alkarsin erwies sich als eine Verbindung des Arsens mit Sauerstoff, Kohlenstoff und Wasserstoff. Bunsen konnte ihm auf Grund seiner Analysen und Dampfdichtebestimmungen die Formel C4H12As2O zuschreiben. Diesen Stoff unterwarf Bunsen einer großen Zahl von chemischen Veränderungen. Dabei stellte sich heraus, daß es zunächst der Sauerstoff ist, der vermehrt und vermindert, verdrängt und ersetzt werden kann, während sich die Veränderungen nicht in gleicher Weise auf die drei anderen Elemente erstrecken. Vielmehr blieben diese Elemente in ihrer durch den betreffenden Teil der Formel zum Ausdruck kommenden Gruppierung C4H12As2 durch eine lange Reihe von Verbindungen unverändert erhalten. Sie stellten sich somit ähnlich wie die Cyangruppe (CN), mit deren[Pg 135] Eisenverbindungen sich Bunsen ja schon beschäftigt hatte, und wie die Benzoylgruppe (C6H7O) als ein Ganzes dar, das als solches an den Umsetzungen teilnimmt. So gelang es Bunsen, in das Alkarsin (C4H12As2O) an Stelle des Sauerstoffs Schwefel, Chlor oder Cyan einzuführen und eine Säure darzustellen, der die Gruppe C4H12As2 als Radikal zugrunde liegt. Das bewog ihn, für letzteres einen besonderen Namen und eine kurze Bezeichnung einzuführen. Er nannte das Radikal C4H12As2 Kakodyl190 und bezeichnete es als Kd. Das Alkarsin erhielt somit als die niedrigste Oxydationsstufe den Namen Kakodyloxyd = KdO.
Die Vorstellung, daß in den organischen Verbindungen gewisse Atomgruppen enthalten seien, die in langen Reihen von Verbindungen stets wiederkehren und nur durch kräftiger wirkende Einflüsse zersetzbar sind, brachte Bunsen auf den Gedanken, ob das Radikal der Kakoydylreihe sich nicht isolieren lasse. Nach der Radikaltheorie sollten solche stabilen Atomgruppen in den organischen Verbindungen die Rolle der Metalle übernehmen. Diesem Gedanken suchte Bunsen eine besondere Stütze durch den Nachweis zu verleihen, daß die Radikale auch außerhalb ihrer Verbindungen bestehen und in diesem Zustande ähnlichen chemischen Verwandtschaftsgesetzen folgen wie die Metalle.
Bunsen suchte die Abscheidung des Kakodyls dadurch zu erreichen, daß er es aus seiner Chlorverbindung durch ein Metall verdrängte. In der Tat erhielt er bei diesem Versuch Chlorzink und eine wasserhelle, dünnflüssige, an der Luft augenblicklich sich entzündende Substanz, die er als das Radikal der Kakodylverbindungen, also als Kakodyl (Kd = C4H12As2) ansprach. Diese Ansicht wurde bei ihm zur Gewißheit, als er die ganze Reihe der Kakodylverbindungen aus der erhaltenen Substanz wieder herzustellen vermochte.
Unter der Einwirkung von Sauerstoff verwandelte sie sich in Kakodyloxyd und in Kakodylsäure, durch Aufnahme von Schwefel, Chlor, Jod ging sie in das Sulfid, Chlorid, Jodid über. Die aus dem Kakodylchlorid durch Zersetzung mit Zink erhaltene Substanz war also einem einfachen elektropositiven Element, etwa dem Kalium oder Natrium, so ähnlich, daß Bunsen sie als ein wahres organisches Element bezeichnete. Nach der heutigen Theorie ist die aus den Kakodylverbindungen durch Reduktion gewonnene Substanz nicht das Radikal selbst, sondern es vereinigen sich zwei Dimethylarsen[Pg 136]gruppen durch Bindung der freien Valenzen des Arsens zu freiem Kakodyl. Als Dimethylarsen wurde das Kakodyl erst zehn Jahre nach Abschluß der Untersuchungen Bunsens erkannt191 (Cahours, 1854). Diese Änderung in der Auffassung des freien Kakodyls tut der Bedeutung der Bunsenschen Untersuchungen über die Kakodylreihe keinen Abbruch. Sie erschlossen das wichtige Gebiet der metallorganischen Verbindungen und haben Frankland und Kekulé die schärfere Erfassung des Valenzbegriffes ermöglicht. Ferner bewiesen Bunsens Untersuchungen, daß anorganische Elemente, wie das Arsen, an der Zusammensetzung der organischen Verbindungen Teil nehmen können, ohne daß der Charakter der letzteren dadurch verloren geht. Daraus erwuchs die Einsicht, daß die chemische Verwandtschaft und die Verhältnisse, unter denen sie wirkt, bei den organischen und den unorganischen Verbindungen die gleichen sind.
Zu der Überzeugung, daß es nur eine Chemie gibt, und daß für die Zusammensetzung der organischen Verbindungen keine anderen Gesetze gelten als für die Mineralchemie gelangte auch Wurtz durch seine Untersuchungen über die Glykole und über das Äthylenoxyd192.
Chevreuls berühmte Untersuchung der Fette hatte ergeben, daß diese Stoffe zusammengesetzte Äther sind, die sich in Glyzerin und Säuren (Fettsäuren) spalten lassen. Später hatten Berthelot und andere Forscher nachgewiesen, daß in den Fetten ein Äquivalent Glyzerin sich mit drei Äquivalenten einer einbasischen Säure unter Austritt von Wasser vereinigt haben, während die gewöhnlichen Alkohole sich mit einem Äquivalent einer einbasischen Säure verbinden. Das Glyzerin erwies sich somit als ein dreiwertiger oder dreisäuriger Alkohol. Das Verhältnis der dreiwertigen zu den einwertigen Alkoholen geht am klarsten aus der Gegenüberstellung der neueren Formeln für den Äthylalkohol (einwertig) und das Glyzerin (dreiwertig) hervor:
Wurtz stellte sich die Aufgabe, Zwischenglieder zwischen den einwertigen Alkoholen und dem Glyzerin zu finden, d. h. Verbindungen darzustellen, in denen sich zwei durch einwertige Säurereste ersetzbare Hydroxylgruppen befinden. Es gelang ihm beim Äthyl-, Propyl-, Butyl- und Amylalkohol solche Zwischenglieder nachzuweisen, die er als Glykole bezeichnete.
Dem Äthylalkohol entsprach der gewöhnliche Glykol
Dem Propylalkohol entsprach Propylglykol
u. s. w.
Auf Einzelheiten dieser Untersuchung kann hier nicht eingegangen werden. Sie verdient vor allem deshalb Erwähnung, weil sie zur Klärung des Begriffes der Wertigkeit beitrug und den Übergang von der Radikal- und Typentheorie zur Valenz- oder Wertigkeitstheorie vermitteln half. Wurtz unterschied ein- und mehratomige Radikale. So faßte er das Äthylen (C2H4), da es sich mit zwei Äquivalenten Chlor verbindet und auch imstande ist, zwei Äquivalente Wasserstoff zu ersetzen, als ein zweiwertiges Radikal auf. Der Chlorverbindung des Äthylens schrieb er die[Pg 138] Formel (C2H4)''Cl2 zu. Als eine diesem Äthylendichlorid entsprechende Verbindung wies er das Äthylenoxyd nach. Er erhielt das Äthylenoxyd (C2H4O) als ein Derivat des gewöhnlichen Glykols,
als dessen Anhydrid er es betrachtete. Das Äthylenoxyd erschien ihm besonders geeignet, um die Konstitution der organischen Verbindungen auf die Verbindungen der anorganischen Chemie zu beziehen193. Wurtz zeigte, daß Äthylenoxyd sich direkt mit Säuren vereinigt, um den Salzen analoge Verbindungen (Äthylenäther) zu bilden. Brachte er z. B. Äthylenoxyd und das gleiche Volumen Salzsäuregas über Quecksilber zusammen, so verschwanden beide Gase augenblicklich, genau wie Ammoniakgas, zu dem man Chlorwasserstoff treten läßt. Das Äthylenoxyd erwies sich nicht nur in seinem Verhalten gegen Säuren, sondern auch gegen Wasser als eine den Oxyden von Calcium, Barium, Blei usw. ganz entsprechende Verbindung. Äthylenoxyd verbindet sich nämlich wie Calciumoxyd mit Wasser, um ein Hydrat zu bilden. Die Analogie zwischen den Hydraten der anorganischen und der organischen Chemie trat besonders aus folgender von Wurtz herrührender Gegenüberstellung hervor:
Dem Kali K'H} O entspricht der Alkohol C2H5H } O.
Dem Baryt Ba''H2 } O2 entspricht der Glykol: (C2H4)''H2} O2.
Der antimonigen Säure Sb'''H3 } O3 entspricht das Glyzerin:
(C3H5)'''H3 } O3.
In diesen Formeln von Wurtz kommen die Radikaltheorie und die Typentheorie, die damals miteinander rangen, zum Ausdruck. Sie weisen aber auch schon über diese beiden Theorien hinaus, indem uns das Kalium, das Barium, das Ammonium und die entsprechenden Radikale Äthyl (C2H5), Äthylen (C2H4) und Propyl (C3H5) als ein-, zwei- und dreiwertige Elemente, beziehungsweise Atomgruppen entgegentreten.
Der Urheber der Typentheorie ist der französische Chemiker Gerhardt194. Der Begriff des Typus begegnet uns zwar schon bei Dumas195. Dieser hatte entdeckt, daß eine wasserstoffhaltige Verbindung bei der Einwirkung von Chlor, Brom oder Jod für jedes Wasserstoffatom, das sie unter Bildung von Chlorwasserstoff, Brom- oder Jodwasserstoff verliert, ein Atom Halogen (Cl, Br, J) aufnimmt. So erhielt er 1839 die Trichloressigsäure, als er Chlor im Sonnenlichte auf Essigsäure einwirken ließ. Dabei blieb die chemische Natur der Essigsäure im wesentlichen ungeändert, eine Tatsache, die mit der herrschenden elektrochemischen Theorie von Berzelius nicht wohl in Einklang zu bringen war. Nach Berzelius bestanden nämlich die Verbindungen in der Vereinigung eines positiven und eines negativen Bestandteils. Dem widersprach, daß sich bei der Substitution, wie man den an der Trichloressigsäure vollzogenen Vorgang bezeichnete, das stark negative Chlor an die Stelle des positiven Wasserstoffs setzte.
aus C2O2H4 wurde C2O2HCl3196.
Die Essigsäure war daher für Dumas das Beispiel eines Typus, nach dem durch Substitution, d. h. durch Ersatz einzelner Atome durch andere Atome oder durch Atomgruppen (Radikale) eine Anzahl anderer Verbindungen gebildet waren. Damit war die dualistische Auffassung von Berzelius überwunden. Jede Verbindung betrachtete Dumas als ein Ganzes, dessen Natur von der Anordnung und weniger von der chemischen Eigenart der Atome abhängig sei. Ihm folgte der soeben im Zusammenhange mit den Anschauungen von Wurtz erwähnte Gerhardt. Er suchte, unterstützt durch die Arbeiten zahlreicher Forscher, unter denen besonders A. W. Hofmann und Williamson genannt seien, die schon damals unübersehbare Fülle der organischen Verbindungen auf gewisse anorganische Stoffe als Typen zu beziehen.
Als derartige Typen betrachtete man
Chlorwasserstoff | HCl |
Wasser | |
und Ammoniak | |
Dazu kam später Grubengas197 |
Die Radikale, um deren Isolierung man sich so sehr bemüht hatte, um sie als wirkliche Bestandteile der Moleküle nachzuweisen, galten Gerhardt nur noch als Beziehungen, wie er sich ausdrückt, und nicht als für sich darstellbare Stoffe. Sie waren sozusagen Reste von Molekülen, und zwar Reste, die bei gewissen Umsetzungen unverändert ausgetauscht werden. Alkohol und Äther z. B. wurden von Williamson198 auf den Typus Wasser zurückgeführt:
Wasser | Alkohol | Äther. |
Den Typus Ammoniak legte Hofmann199 den Alkylaminen zugrunde, indem er zeigte, wie sie sich vom Ammoniak durch Ersatz des Wasserstoffs durch Kohlenwasserstoffreste (Alkyle) ableiten lassen:
Ammoniak | Äthylamin | Diäthylamin | Triäthylamin. |
Hofmanns Verfahren bestand darin, daß er die Halogenverbindungen der Alkyle auf Ammoniak einwirken ließ und das entstandene Alkylammoniumsalz durch Ammoniak zerlegte:
C2H5J + NH3 = NH2(C2H5)HJ.
NH2(C2H5).HJ + NH3 = NH4J + NH2(C2H5).
Der Typus Ammoniak war dadurch einer großen Ausdehnung fähig, daß man auf ihn auch die Alkylphosphor-, die Alkylarsen- und die Alkylantimonverbindungen zurückführen konnte, in denen Phosphor Arsen und Antimon die Stelle des Ammoniakstickstoffes einnehmen:
Äthylamin | Äthylphosphin | Äthylarsin | Äthystibin. |
Die Arsine und Stibine200, in denen die metallähnlichen Elemente Arsen und Antimon an die Stelle von Stickstoff getreten sind, leiteten zu den metallorganischen Verbindungen im engeren Sinne, z. B. den Zinkalkylen über, an denen Frankland die Lehre von der Wertigkeit oder der Valenz der Elemente entwickelte.
Da die ganze Mannigfaltigkeit der organischen Verbindungen sich nicht auf wenige Typen zurückführen ließ, so ging man von den einfachen Typen zu Doppeltypen und zu gemischten Typen über. Wie wir schon aus den von Wurtz herrührenden Formeln ersahen201, wurden Glykol auf den Doppeltypus
und Glyzerin auf den dreifachen Typus
bezogen. Im Glykol sollte das zweiwertige Radikal C2H4 die beiden Wassermolekel in der Weise verbinden, wie es nachstehende Formel erläutert:
Ganz entsprechend wurde die Schwefelsäure durch Eintritt der zweiwertigen Gruppe SO2 in den Doppeltypus
abgeleitet:
Für die Ableitung einer Verbindung aus einem gemischten Typus NH3, H2O diene folgendes Beispiel:
Ammoniak, Wasser. | Carbaminsäure. |
Aus der Typentheorie, wie aus der Radikaltheorie und der Berzeliusschen dualistischen Vorstellungsweise sind wertvolle Bestandteile in die heute geltenden Anschauungen übergegangen. Sonst würde sich die ausführliche Darstellung, die wir diesen Theorien gewidmet haben, kaum rechtfertigen. Daß z. B. die Alkylamine in ihrem Aufbau dem Ammoniak analog sind, daß gewisse Atomgruppen in zahlreichen Verbindungen wiederkehren, daß sich in diesen oft ein gewisser Dualismus findet: alles das hat sich bis auf den heutigen Tag erhalten. Der Fehler der genannten früheren Theorien lag darin, daß sie in einseitiger Bevorzugung des jeweils im Vordergrunde stehenden Prinzips die Gesamtheit der Erscheinungen umfassen wollten. Daß die Typentheoretiker auf diesem Wege zu rein künstlichen Systemen gelangten und daß ihre Bemühungen sehr oft auf ein leeres Formelspiel hinausliefen, erkannte vor allem Kolbe. Er suchte zwischen den unorganischen und den organischen Verbindungen an Stelle rein äußerlicher Beziehungen einen natürlichen Zusammenhang zu finden.
Der Grundgedanke, der ihn dabei leitete, stützte sich auf pflanzenphysiologische Tatsachen. Da die Pflanze aus einfachen anorganischen Verbindungen die organischen aufbaue, so sei damit die Möglichkeit erwiesen, die organischen Verbindungen durchweg als Abkömmlinge (Derivate) unorganischer Verbindungen aufzufassen. Aus den letzteren sollten die organischen Stoffe durch wunderbar einfache Substitutionsprozesse hervorgegangen sein202. Kolbe erblickte daher in der Zurückführung der organischen auf[Pg 143] unorganische Verbindungen die wissenschaftliche Grundlage zu einer naturgemäßen Klassifikation der ersteren. Die unorganischen Verbindungen waren ihm nicht bloße Schemen im Sinne der eigentlichen Typentheoretiker, er wollte sie vielmehr als reale Typen aufgefaßt wissen. Deshalb erblickte er die Aufgabe der Chemie darin, die organischen Verbindungen aus den unorganischen aufzubauen und damit gleichzeitig einen Einblick in ihre wirkliche Konstitution zu gewinnen.
Die Verwirrung, die um die Mitte des 19. Jahrhunderts hinsichtlich der Auffassung der organischen Verbindungen bestand, wurde durch den Umstand noch vermehrt, daß man sich über die Größe mancher Atomgewichte und über die scharfe Unterscheidung der Atomgewichte von den Äquivalenten noch nicht geeinigt hatte. Eine aus diesem Grunde einberufene internationale Versammlung203 kam zu dem Beschluß, daß man über wissenschaftliche Fragen nicht durch Abstimmung entscheiden könne. Auf dieser Versammlung trat besonders Cannizzaro im Gegensatz zu Dumas für die Anschauung ein, daß die anorganische und die organische Chemie nicht zwei verschiedene Wissenschaften seien, sondern daß es nur eine Chemie gebe, die sich in ihrem unorganischen und in ihrem organischen Zweige derselben Regeln und Methoden bedienen müsse. Vor allem forderte Cannizzaro204, daß die an unorganischen Verbindungen entdeckte Avogadrosche Regel auf das gesamte Gebiet der Chemie ausgedehnt und stets zur Bestimmung des Molekulargewichts herangezogen werde. So ergaben sich, auf den Wasserstoff als Einheit bezogen, z. B. folgende Molekulargewichte für einige bekannte unorganische und organische Verbindungen:
Um die Unsicherheit in der Wahl der Atomgewichte der Metalle zu beseitigen, bediente sich Cannizzaro der von Dulong[Pg 144] und Petit gefundenen Regel, nach welcher die Atomwärme der Elemente konstant ist205. Dulong und Petit hatten für eine Anzahl Grundstoffe gefunden, daß das Produkt aus dem Atomgewicht und der spezifischen Wärme nahezu eine konstante Zahl (6,5) ist. Schwankte man nun, wie z. B. beim Quecksilber, ob man diesem Metall das Atomgewicht 100 oder 200 zuschreiben solle, so machte man die Probe mit Hilfe der Dulong-Petitschen Regel. Für das Quecksilber, dessen spezifische Wärme 0,0324 ist, ergab die Anwendung der Regel das Atomgewicht 200, denn
200 . 0,0324 = 6,48.
Auf demselben Wege wurde das Atomgewicht des Kupfers, über dessen Größe gleichfalls Meinungsverschiedenheiten bestanden, zu 63,5 bestimmt.
Aus der schärferen Bestimmung der Atom- und der Molekulargewichte, sowie der Erkenntnis, daß nicht nur den zusammengesetzten Radikalen, sondern auch den elementaren Atomen ein gewisser Substitutionswert, eine Valenz oder Wertigkeit, zukommt, erwuchs seit der Mitte der fünfziger Jahre die heute herrschende Atomverkettungs- oder Strukturtheorie. Die Halogene (Chlor, Brom, Jod) und gewisse Metalle gelten danach als einwertig, weil sie imstande sind, entweder sich mit einem Atom Wasserstoff zu verbinden oder ein solches in Verbindungen zu ersetzen. Sauerstoff und Schwefel einerseits, sowie die Metalle Calcium, Barium, Zink und andere werden, da sie den doppelten Substitutionswert besitzen, als zweiwertig bezeichnet. Die Valenzverhältnisse innerhalb der Stickstoffgruppe (Stickstoff, Phosphor, Arsen, Antimon, Wismut) hat besonders Frankland aufgeklärt206. Er wies darauf hin, daß diesen Elementen eine wechselnde, durch die Zahlen 3 und 5 bestimmte Valenz zukommt, und daß beispielsweise der Phosphor in seiner Wasserstoffverbindung als dreiwertig
in seiner Jodwasserstoffverbindung dagegen als fünfwertig aufgefaßt werden muß:
Ihren Abschluß erhielten die Fundamente der Valenztheorie erst dadurch, daß Kekulé im Jahre 1858 das eigentliche organische Element, den Kohlenstoff, als vierwertig erkannte. Wie sich durch Kekulé und andere Forscher aus der Valenztheorie die Theorie der chemischen Struktur entwickelte, soll in einem späteren Abschnitt dargestellt werden.
Eine besondere Wissenschaft vom Leben entstand erst während der ersten Jahrzehnte des 19. Jahrhunderts. Die vorhergehenden Perioden hatten wohl Ansätze gezeitigt. Indessen der Versuch, das Leben mit den Hilfsmitteln der exakten Forschung zu analysieren, setzte diejenigen physikalischen und vor allem diejenigen chemischen Grundlagen voraus, die erst gegen das Ende des 18. Jahrhundert geschaffen wurden. Zu den ersten, die im Beginn des 19. Jahrhunderts eine Reihe von Lebenserscheinungen zu erklären suchten, ohne sich dabei von der herrschenden Vorstellung einer besonderen Lebenskraft beeinflussen zu lassen, gehörten Knight und Saussure. Der erstere untersuchte nach Art des modernen Physiologen die Bewegungen, mit denen die Pflanzen gegen äußere Kräfte reagieren. Saussures Untersuchungen betrafen dagegen die Ernährungsphysiologie. Er ermittelte, daß die Pflanzen ihre mineralischen Nährstoffe nicht nur den Salzlösungen des Bodens, sondern zum Teil auch dem Humus, d. h. der in der Erde verwesenden Substanz abgestorbener Pflanzenteile entnehmen. Die Bedeutung der letzteren wurde indessen während der ersten Jahrzehnte des 19. Jahrhunderts überschätzt. Es bildete sich eine Theorie heraus, die in dem Humus den wichtigsten Nährstoff der Pflanzen erblickte und in der widersinnigen Annahme gipfelte, daß der Humusgehalt des Bodens durch die Vegetation allmählich erschöpft werde. An diesem Punkte setzte Liebig ein. »Seine Hand, die niemals einen Pflug geführt, lieferte der ältesten aller menschlichen Gewerbtätigkeiten, dem Ackerbau, den Schlüssel zum Verständnis tausendjähriger Gepflogenheiten207.«
Seine grundlegenden Versuche und Gedanken über die chemische Physiologie der Pflanze entwickelte Liebig in einem Werke, das er »Organische Chemie in ihrer Anwendung auf Agrikultur und[Pg 147] Physiologie« betitelte. Zunächst wies Liebig darin im Anschluß an die Untersuchungen Saussures überzeugend nach, daß der Kohlenstoff der Pflanzen aus der Atmosphäre stammt. Der Humus ist nach Liebig nichts anderes als verwesende Pflanzenfaser und spielt bei der Ernährung keine wesentliche Rolle. Um so mehr gilt dies von den anorganischen Bestandteilen des Bodens. Soll die Pflanze gedeihen, so müssen nicht nur die allgemeinen Bedingungen des Wachstums wie das Licht, die Feuchtigkeit, die Wärme usw. gegeben sein, sondern der Boden muß entweder gewisse für die Ernährung der Pflanze unerläßliche Bestandteile enthalten, oder sie müssen ihr in Form von Dünger zugeführt werden. Reiner Sand und reiner Kalkstein sind, wie Liebig hervorhebt, ganz unfruchtbar. Die unentbehrlichen Bestandteile empfängt der Boden vor allem durch die Verwitterung, die ihm Kalk, Alkalien, Phosphor usw. zuführt. Während Kohlendioxyd, Wasser und Ammoniak als Quelle des zum Leben erforderlichen Stickstoffs von keiner Pflanze entbehrt werden können, zeigen die einzelnen Pflanzenarten den übrigen, dem Boden entstammenden anorganischen Stoffen gegenüber gewisse Verschiedenheiten. Diese machen sich darin bemerkbar, daß die eine Pflanze zu ihrem Gedeihen vorzugsweise Kalk, die andere Kali, eine dritte Phosphorsäure usw. beansprucht. Aus dieser Tatsache machte Liebig die Bedeutung des unter dem Namen der Wechselwirtschaft bekannten Verfahrens begreiflich.
Als das wichtigste Prinzip des Ackerbaues stellte er den Grundsatz auf, daß der Boden in vollem Maße wieder erhalten muß, was ihm durch die Ernte an anorganischen Bestandteilen genommen ist. In welcher Form dieser Ersatz geschieht, ob in Form von Exkrementen oder von Asche, Knochen usw. ist gleichgültig. Es wird eine Zeit kommen, sagt Liebig, in der man den Acker mit phosphorsaurem Kalk oder mit kieselsaurem Alkali usw. düngen wird, die man in chemischen Fabriken bereitet208. Der Erfolg sollte bald die Richtigkeit dieser von Liebig vorgetragenen Lehren beweisen. Landwirtschaftliche Versuchsanstalten wurden überall errichtet. Um den Bedarf an künstlichem Dünger zu decken, trat eine wichtige Industrie ins Leben. Ferner half die Ausdehnung wissenschaftlicher Grundsätze auf das Gebiet der Gewerbtätigkeit einer einheitlichen Auffassung des Geschehens den Boden bereiten.
Grundlegende Gedanken über die im Körper der Tiere und des Menschen vor sich gehenden chemischen Prozesse entwickelte Liebig in einer Schrift, die er 1842 unter dem Titel »Die organische Chemie in ihrer Anwendung auf Physiologie und Anatomie« erscheinen ließ. In erster Linie faßte er auch hier den Vorgang der Atmung und der Ernährung ins Auge. Die Nahrungsmittel dienen entweder zur Vermehrung der Masse oder zum Ersatz von verbrauchtem Stoff oder endlich zum Hervorbringen von Kraft. Alle vitalen Fähigkeiten entspringen aus der Wechselwirkung des Sauerstoffs der Luft und der Bestandteile der Nahrungsmittel. Letztere teilte Liebig in zwei Klassen, in stickstoffhaltige und in stickstofffreie. Erstere dienen nach ihm zum Aufbau der Gewebe. Die stickstofffreien dagegen haben die Aufgabe, den Respirationsprozeß zu unterhalten. Dieser ist die Quelle der tierischen Wärme. Die Respiration ist die gespannte Feder, das fallende Gewicht, welches das Uhrwerk in Bewegung erhält. Sie ist ferner nicht nur die Quelle der animalischen Wärme, die man früher wohl auf die mechanischen Bewegungen des Tierkörpers zurückführte, sondern sie ist auch die letzte Ursache aller Krafterzeugung. Auch auf diesem Gebiete wurde also die klare Erfassung des Energiebegriffes in seiner ganzen Allgemeinheit, die wir als die größte wissenschaftliche Tat des 19. Jahrhunderts bezeichnen können, vorgeahnt und vorbereitet.
Hand in Hand mit der besonders durch Liebig geforderten physiologischen Chemie entwickelte sich seit der Mitte des 19. Jahrhunderts die moderne, mit allen Hilfsmitteln der exakten Forschung arbeitende Hygiene. Ihr namhaftester Vertreter war ein Schüler Liebigs, Pettenkofer209. In Gemeinschaft mit seinem Schüler Voit schuf Pettenkofer die wichtigsten Methoden, um den Stoffwechsel am lebenden Geschöpf qualitativ und quantitativ zu verfolgen. Der richtig geleitete Stoffwechsel ist aber nur eine der Bedingungen des normalen, gesunden Lebens. Nicht minder wichtig[Pg 149] für das Wohlbefinden des einzelnen und der Gemeinschaft sind eine große Zahl von Einflüssen, die von außen auf den Organismus wirken, wie das Licht, die Bekleidung, die Wohnung, die Beschaffenheit des Klimas, des Bodens usw. Die moderne Hygiene stellt sich die Aufgabe, die Bedeutung solcher für die Gesundheit der Bevölkerung maßgebenden Faktoren nach naturwissenschaftlicher Methode zu ermitteln. Hand in Hand mit einer das gleiche Ziel verfolgenden Technik gelang es im Verlauf der zweiten Hälfte des 19. Jahrhunderts durch eine zweckmäßig geleitete Überwachung der Volksernährung, durch Verbesserung der Wohnverhältnisse, durch Kanalisation, Wasserversorgung und vieles andere das Leben in einem solchen Masse gesunder zu gestalten, daß die mittlere Lebensdauer heute weit günstiger ist als vor einem halben Jahrhundert.
Hierzu trug vor allem die erfolgreiche Bekämpfung der endemischen und epidemischen Volksseuchen, wie des Typhus und der Cholera, bei. Es war ein Kampf, bei dem man sich von zwei Ansichten leiten ließ, die auch heute noch nicht ihren Ausgleich gefunden haben. Nach der Ansicht, die besonders Pettenkofer vertrat, treten die Epidemien dort auf, wo die örtliche oder die individuelle Disposition gegeben sind. Für diese Ansicht führte Pettenkofers Schule besonders die Abhängigkeit des Typhus von dem Grundwasserstande ins Feld. Daß selbst die Cholerabazillen ohne eine solche Disposition keine Erkrankung hervorrufen, bewies Pettenkofer, indem er und eine größere Zahl seiner Schüler Cholerakulturen mit Millionen von Bazillen verschluckten, ohne sich dadurch zu schädigen. Pettenkofer geriet durch seine in erster Linie die Disposition betonende Lehre in einen scharfen Gegensatz zu der besonders von Koch vertretenen Ansicht, daß das Kontagium die Hauptursache der Krankheit sei. Die Wahrheit wird, wie in der Regel, auf der mittleren Linie zu suchen sein.
Während Liebig für die Physiologie, ausgehend von den neuesten Ergebnissen der chemischen Forschung, neue Grundlagen geschaffen hatte, vollzog sich dieser Vorgang durch die Gebrüder Ernst und Eduard Weber vom physikalischen Standpunkt aus. Eduard Weber untersuchte die Mechanik der Gehwerkzeuge und der Muskelbewegungen (1836). In Gemeinschaft mit seinem Bruder dehnte er die physikalische Lehre von der Wellenbewegung auf den physiologischen Vorgang des Blutkreislaufes aus.
Eine Bereicherung auf allen Gebieten und eine zusammenfassende Darstellung erfuhr die Physiologie in diesem Zeitraum[Pg 150] durch Johannes Müller. Johannes Müller, »der deutsche Cuvier«, war der letzte Forscher, der noch alle Gebiete der Zoologie zu beherrschen und zu fördern vermochte. Nach ihm ist niemand aufgetreten, der gleichzeitig als Morphologe, Anatom und Physiologe Großes geleistet hätte. »Wie nach dem Tode Alexanders des Großen teilten sich die Feldherrn in die eroberten Gebiete210.«
Johannes Müller wurde 1801 in Koblenz geboren. Seit 1824 wirkte er in Bonn als Dozent für vergleichende Anatomie und Physiologie. Im Jahre 1833 siedelte er nach Berlin über, wo er das Haupt der bedeutendsten Physiologenschule wurde. Schwann, Dubois Reymond, Helmholtz, Brücke und Virchow zählten zu seinen Jüngern. Müller starb im Jahre 1858 in Berlin, der Hauptstätte seiner hervorragenden Wirksamkeit.
Als Müller seine Laufbahn begann, war die Wissenschaft in Deutschland derartig von Philosophie und Ästhetik überwuchert, daß Müller wie der gleichalterige Liebig zunächst Gefahr lief, von den Pfaden echter Naturforschung abgelenkt zu werden. Die philosophische Spekulation hatte, ausgehend von unklaren Vorstellungen über die galvanische Elektrizität, um jene Zeit am ungünstigsten die Physiologie beeinflußt, denjenigen Zweig der Naturwissenschaft, dem Müller sich zunächst selbständig forschend zuwandte.
Ein meist planloses Experimentieren mit lebenden Tieren bei dem einen Teil der Physiologen und eine Abneigung gegen die Vivisektion bei dem anderen kennzeichnete die Physiologie vor dem Auftreten Johannes Müllers. Mit ihm setzte die besonnene, zielbewußte Arbeitsweise auf diesem Gebiete ein. Nachdem Müller sich von der naturphilosophischen Richtung mit ihren heute geradezu unbegreiflichen Auswüchsen und Verirrungen um 1824 entschieden abgewandt hatte, verfiel er durchaus nicht etwa dem bloßen Empirismus. Wie alle echten Naturforscher erkannte er eine Philosophie, die nach dem Verständnis für den inneren Zusammenhang der Tatsachen strebt und auf dem sicheren Boden der exakten Forschung ruht, voll an.
Müllers erste Experimentaluntersuchung betraf die Funktionen der Rückenmarksnerven, eine Aufgabe, die sich nur durch Versuche am lebenden Tiere lösen ließ. Der Engländer Bell[Pg 151] hatte den Satz aufgestellt, daß die sensiblen und die motorischen Nervenfasern getrennt aus dem Rückenmark hervortreten. Den sicheren Beweis für die Richtigkeit des Satzes, daß die vordere Wurzel eines Rückenmarksnerven nur motorische, die hintere dagegen nur sensible Fasern enthält, lieferte Müller. Durch seine Untersuchung der Rückenmarksnerven begründete Müller auch die Lehre von den im Rückenmark zur Auslösung kommenden, ohne Zutun des Bewußtseins erfolgenden Reflexbewegungen. Müller zeigte, daß diese Bewegungen, da sie rein automatisch vor sich gehen, auch von dem frisch geköpften Tiere vorgenommen werden.
Als ein zweiter Haller unternahm es Müller, das gesamte Gebiet der Physiologie des tierischen und des menschlichen Organismus, gestützt auf eine außerordentliche Fülle von Erfahrungen, zusammenhängend zu bearbeiten. So entstand sein großes »Handbuch der Physiologie«211.
Die Leistungen Müllers auf den Gebieten der Zoologie, der Anatomie und der Entwicklungsgeschichte gehören gleichfalls zu den bedeutendsten des 19. Jahrhunderts. Sie können indessen hier nur angedeutet werden. So geht auf Müller die große Verallgemeinerung der Zellenlehre, die mit dem Namen seines Schülers Schwann verknüpft ist, zurück. Es war im Jahre 1835, als Müller auf die Ähnlichkeit zwischen den Zellen der Chorda dorsalis, jenes Stranges, der bei den niedersten Tieren die Stelle der Wirbelsäule vertritt, und den Pflanzenzellen hinwies. Auch in dem Glaskörper und dem Fettgewebe bemerkte Müller die zellige Zusammensetzung. Er erblickte sogar den Kern der Knorpelzellen, und Schwanns Arbeit, die für sämtliche tierischen Gewebe die Entstehung aus Zellen nachweisen sollte, entstand sozusagen unter seinen Augen.
Durchdrungen von Cuviers Lehre, daß in jeder großen Abteilung des Tierreichs gewissermaßen ein Bauplan verwirklicht sei, suchte Müller diesen Plan für den Kreis der Wirbeltiere eingehend und mit besonderer Berücksichtigung der niederen Gruppen dieses Kreises darzulegen. So entstanden seine vergleichend anatomischen Untersuchungen der Myxinoiden, die mit den Neunaugen und dem Amphioxus die unterste Grenze des Wirbeltierstammes bilden. Von hier aus dehnte Müller seine Forschungen über die Haie aus und gelangte endlich zu einer neuen natürlichen Einteilung der Fische.
Unter den wirbellosen Tieren hat Müller die Klasse der Stachelhäuter (Echinodermen) mit einer solch weitgehenden Genauigkeit durchforscht, daß diese bis dahin nur ganz mangelhaft bekannte Klasse durch ihn in ihrer typischen Gestaltung und Gliederung erkannt und zu einer der besterforschten des gesamten Tierreichs wurde. Der Kreis der Urtiere endlich wurde durch Müller um den Typus der Radiolarien bereichert, deren genauere Erforschung er seinem Schüler Häckel überließ.
Unter den allgemeinen Ergebnissen der physiologischen Arbeiten Müllers steht das Gesetz von den spezifischen Energien der Sinnesorgane obenan. Es bringt zum Ausdruck, daß die Art der Wahrnehmung eines Sinneseindrucks »nicht den äußeren Dingen, sondern der Nervensubstanz anhaftet, und daß z. B. der Sehnerv nicht erregt werden kann, ohne in den ihm eingeborenen Energien des Lichten und des Farbigen tätig zu sein.« Das Licht und die Farben existieren also nicht als etwas Fertiges, Äußerliches, von dem berührt der Sinn die entsprechende Empfindung hat, sondern die Sehsinnsubstanz bringt, von jedwedem Reiz erregt, immer diesen Reiz in den Energien des Lichten, Dunklen und Farbigen sich selbst zur Empfindung. Der Sehnerv kann gar nicht erregt werden, ohne sich selbst leuchtend zu sehen, der Hörnerv nicht, ohne eine Tonempfindung zu haben, der Geschmacksnerv nicht, ohne zu schmecken usw. Es ist ferner ganz gleichgültig, welcher Art die Reize sind, die ein Sinnesorgan treffen, ihre Wirkung hängt immer von den Energien des betreffenden Organes ab. Druck, Erschütterung, Reibung, Kälte und Wärme, der galvanische Strom, chemische Agentien, die Pulse des eigenen Körpers, die Entzündung der Netzhaut, kurz alle nur denkbaren Reize, die auf den Sehnerven wirken, wirken auf ihn nur so, daß sie die Empfindung des Dunklen, die er auch ohne Reiz hat, zur Empfindung des Lichten und des Farbigen treiben.
Ebenso bewirken alle denkbaren Arten von Reiz auf den Bewegungsnerven stets nur die Zusammenziehung des Muskels. Was aber dem, das die Lichtenergie in unserem Auge hervorbringt, wesentlich zugrunde liegt, das wissen wir nicht.
Licht, Dunkel, Farbe, Ton, Wärme, Kälte, die verschiedenen Gerüche und der Geschmack, mit einem Worte, alles, was uns die fünf Sinne an allgemeinen Eindrücken bieten, sind also nicht die Wesenheiten der äußeren Dinge, sondern die Qualitäten unserer Sinne. Daß die Bedingungen für die verschiedenen Töne, Gesichtserscheinungen usw. in den äußeren Dingen gegeben sind, wird[Pg 153] damit nicht geleugnet. Indes die Wesenheit der äußeren Dinge und dessen, was wir äußeres Licht nennen, bleibt uns unbekannt. Wir kennen nur die Wesenheiten unserer Sinne, und von den äußeren Dingen wissen wir nur, inwiefern sie auf uns in unseren Energien wirken.
So Johannes Müller in der Entwicklung seiner Ansichten über die spezifischen Energien der Sinnesorgane. Fehlte es hier Müller auch nicht an Vorläufern, so hatte doch niemand vor ihm mit der gleichen Klarheit und derselben überzeugenden Beredsamkeit das Verhältnis zwischen dem empfindenden Subjekt und den auf dieses eindringenden Reizen geschildert. Müllers Lehre ist nicht nur für die Sinnesphysiologie, sondern auch für die neuere Philosophie grundlegend geworden.
Bemerkenswert sind auch die Untersuchungen Müllers über das Sehen mit zusammengesetzten Augen, wie wir sie bei den Insekten finden212. Aus einer genauen anatomischen Untersuchung dieser Sehorgane erschloß Müller die physikalischen Bedingungen, nach denen hier das Sehen, das er ein musivisches Sehen nannte, vor sich geht.
Der anatomische Bau der zusammengesetzten Augen bedingt, wie Müller nachwies, daß einer bestimmten Stelle der Netzhaut nur Licht von einer bestimmten Stelle des Gegenstandes zukommen kann, das von allen anderen Teilen der Netzhaut ausgeschlossen wird. Dies geschieht in den zusammengesetzten Augen durch die zwischen den Fasern des Sehnerven und den Facetten der Hornhaut gelegenen, mit Farbstoff bekleideten Kegel. Jeder dieser Kegel (Abb. 27) läßt nur das Licht, das unmittelbar durch seine Achse einfällt, zu der Faser des Sehnerven d gelangen, mit der der Kegel an seiner Spitze verbunden ist. Alles schief einfallende Licht wird nicht das untere Ende des Kegels erreichen und auch nicht zur Wahrnehmung durch andere Fasern des Sehnerven gelangen, da es von den mit Farbstoff bekleideten Wänden des im[Pg 154] übrigen durchsichtigen Kegels verschluckt wird. Je mehr durchsichtige Kegel in einem Kugelabschnitt von bestimmter Größe vorhanden sind, um so bestimmter wird die Begrenzung des Bildes im Innern des Auges werden.
Die im Verlauf der ersten Hälfte des 19. Jahrhunderts vor sich gehende Errichtung der Physiologie auf biochemischer und biophysikalischer Grundlage führte auch zu einer Erschütterung der alten philosophischen Vorstellung, daß der Organismus von Lebensgeistern oder von einer besonderen Lebenskraft beherrscht werde. Von dieser Vorstellung waren selbst noch Liebig und Müller beherrscht. Liebig nennt die Lebenskraft eine eigentümliche Kraft, weil ihr Äußerungen zukämen, zu denen keine andere Kraft befähigt sei. So soll nach ihm ein Zuckerteilchen sich nicht künstlich aus den Elementen aufbauen lassen, weil es dazu einer Mitwirkung der Lebenskraft bedürfe213. Mit jedem neuen Erfolge, den die Anwendung chemischer und physikalischer Untersuchungsweisen auf physiologische Probleme zeitigte, wurde die Annahme einer die übrigen Kräfte sozusagen in Fesseln haltenden Lebenskraft hinfälliger. Am schärfsten wurde sie von Dubois Reymond und dem Botaniker Schleiden bekämpft. Diese Forscher betrachteten es als die nächstliegende Aufgabe der Physiologie das Leben aus den physikalischen und chemischen Kräften zu erklären. Von keiner dieser Kräfte kenne man bis jetzt die Grenzen ihrer Wirksamkeit im Organismus. Wolle man selbst nicht in Abrede stellen, daß es neben jenen Kräften im organischen Körper noch eine diesem eigentümliche Lebenskraft gäbe, so sei doch so viel einleuchtend, daß erst dann von ihr die Rede sein könne, wenn man die Wirkungssphäre aller anorganischen, im Organismus tätigen Kräfte durchforscht habe. Dann erst sei man imstande zu bestimmen, ob nun noch von dem Ganzen, das wir Leben nennen, ein größerer oder geringerer Teil übrig bleibt, der sich nicht auf die anorganischen Kräfte zurückführen läßt.
Gewiß war das Problem des Lebens nicht etwa, wie die Materialisten wollten, durch diese Preisgabe schon gelöst. Andererseits läßt sich aber auch nicht verkennen, daß man von einer Lebenskraft als einem Etwas, das außer Zusammenhang mit der übrigen Natur steht, absehen mußte, wenn man zu einer Ausdehnung des Energieprinzips auf den gesamten Ablauf des Geschehens gelangen wollte.
Auf dem Gebiete der Botanik ist für die ersten Jahrzehnte des 19. Jahrhunderts das Wiederaufblühen der seit ihrer Begründung durch Grew und Malpighi sonderbarerweise fast ganz vernachlässigten anatomischen Forschung bemerkenswert. Der Wert der Pflanzenanatomie wurde von den Männern, die sich der reinen Systematik widmeten, so sehr verkannt, daß z. B. ein Linné die Phytotomen gar nicht zu seinen Fachgenossen, sondern zu den bloßen Liebhabern der Botanik rechnete. Diese andauernde Verkennung einer der wichtigsten Grundlagen der eigentlichen botanischen Wissenschaft rächte sich dadurch, daß man in die sonderbarsten Irrtümer verfiel. So betrachtete Linné selbst z. B. das Mark als den wichtigsten Teil der Pflanze, angeblich weil es die Stelle des Gehirns der Tiere vertrete. Um die Wende zum 19. Jahrhundert herrschten bezüglich der Zusammensetzung und der Tätigkeit des Pflanzeninnern so viele Widersprüche, daß sich die Akademie der Wissenschaften zu Göttingen veranlaßt sah, über diesen Gegenstand für das Jahr 1805 einen Preis auszuschreiben. Der Erfolg dieses Ausschreibens war so erfreulich, daß man dieses Jahr in der Folge als den Wendepunkt in der Entwicklung der Pflanzenanatomie bezeichnet hat.
Der Preis wurde Link214 zuerkannt, dessen Bestreben darauf hinauslief, die Systematik mit der Pflanzenanatomie und der Physiologie zu verbinden. Wie gering die Einsicht in den Bau der pflanzlichen Organismen damals war, geht auch daraus hervor, daß Link erst nachweisen mußte, daß auch die Flechten und die Pilze aus Zellen bestehen. Von hervorragender Seite waren nämlich Zweifel dagegen[Pg 156] geäußert und diesen Organismen die pflanzliche Natur infolgedessen überhaupt abgesprochen worden. Ein anderer Botaniker215 hatte die im Innern der Zellen auftretenden Stärkekörner für junge in der Bildung begriffene Zellen gehalten. Auch diesen Irrtum widerlegte Link216. Doch beging er den neuen Irrtum, die jüngeren Zellen zwischen den älteren entstehen zu lassen, während sie sich tatsächlich durch Teilung bilden. Die Frage der Vermehrung der Zellen konnte eben erst entschieden werden, nachdem man als den wesentlichsten Bestandteil der Zelle ihren protoplasmatischen Inhalt erkannt hatte.
Der Aufschwung, den die Anatomie der Pflanzen zu Beginn des 19. Jahrhunderts erfuhr, hing also nicht nur mit der Verbesserung des Mikroskops, sondern vor allem mit der besseren Würdigung jenes Wissenszweiges und auch mit dem Fortschritt der mikroskopischen Technik zusammen. Während man anfangs die zu untersuchenden Pflanzenteile durch ziemlich gewaltsame Mittel (Zerquetschen) zerkleinerte, lernte man feine Schnitte nach verschiedenen Richtungen machen und suchte aus den so erhaltenen Befunden sich ein der Wirklichkeit entsprechendes Bild vom Zellenaufbau zu kombinieren. Kleine, uns heute als selbstverständlich erscheinende Kunstgriffe, wie das Befeuchten feiner Objekte, um ihr sofortiges Austrocknen zu verhindern, die Verwendung von Deckgläsern, die Trennung der Gewebselemente durch Mazeration und anderes mehr: alles das waren Dinge, die damals erst in die mikroskopische Technik eingeführt wurden.
Das wertvollste Ergebnis der neueren Mikroskopie bestand in der Erkenntnis, daß zwischen den Elementen der Pflanze und des Tieres kein grundsätzlicher Unterschied besteht. Diese enge Verknüpfung der Botanik mit der Zoologie vollzog sich durch Schwann, der nachwies, daß sämtliche Lebewesen aus denselben Elementargebilden zusammengesetzt sind. Während man zuerst das Hauptgewicht auf die formbestimmende Zellwand gelegt hatte, erkannte man die letztere jetzt als das Sekundäre und den Zellinhalt als den eigentlichen Sitz der Lebensvorgänge. Die schon während des 18. Jahrhunderts217 in der Pflanzenzelle wahrgenommenen Bewegungen wurden als ein Kreisen dieses Zell[Pg 157]inhalts, des Protoplasmas, gedeutet. Man bemerkte, daß ein Teil des letzteren eine gewisse Beständigkeit besitzt, und nannte diesen Kern218. Ferner war auf die Ähnlichkeit des Gefüges gewisser tierischer Gewebe mit dem zelligen Bau der Pflanzen schon öfter hingewiesen worden219, als Schwann es unternahm, durch seine über alle Teile des Tieres sich erstreckenden »Mikroskopischen Untersuchungen« die Übereinstimmung in dem Aufbau und dem Wachstum aller Lebewesen darzutun. Nach Schwanns Ausspruch ist die Zellenbildung das gemeinsame Entwicklungsprinzip für die verschiedensten Teile der Organismen. Diese kühne Verallgemeinerung, deren Nachweis bis in alle Einzelheiten erst im Laufe der nachfolgenden Jahrzehnte geschehen konnte, hat nicht weniger wie alle übrigen in dieser Periode geschehenen Fortschritte das wissenschaftliche Denken in neue Bahnen lenken helfen.
Theodor Schwann wurde 1810 in der Rheinprovinz220 geboren. In Bonn schloß er sich an den großen Physiologen Johannes Müller221 an. Er folgte diesem nach Berlin. Dort entstand unter Müllers Einfluß und Mitwirkung Schwanns Lehre von dem Aufbau des gesamten Organismus aus Zellen oder metamorphosierten, auf Zellen zurückführbaren Gebilden. Als Physiologe ist Schwann als der Entdecker des Pepsins und durch seine Versuche über Gärung und Fäulnis bekannt geworden222.
Auf seine Zellentheorie wurde Schwann durch zwei Umstände geleitet. Einmal lagen viele Einzelbeobachtungen vor, die eine Analogie in der Zusammensetzung des Tier- und Pflanzenkörpers vermuten ließen. So hatte, wie erwähnt, schon Müller bei der Untersuchung des Knorpelgewebes und der Chorda dorsalis der niederen Wirbeltiere eine an die Zellen der Pflanzen erinnernde Zusammensetzung aufgefunden. Auf die gleiche Analogie führte auch das Studium der ersten Entwicklungsvorgänge. Seitdem von Baer das menschliche Ei entdeckt hatte, sah man, daß die Entwicklung durch die ganze Reihe der Lebewesen mit einem einfachen Bläschen anhebt, das sich durch wiederholte Teilung zunächst zu einem zelligen Gebilde, der Keimblase, gestaltet. Dieser als Furchung bezeichnete Vorgang wurde zuerst am Froschei[Pg 158] entdeckt223, dann an Fischeiern nachgewiesen und endlich als das erste Entwicklungsstadium aller Tiere mit alleiniger Ausnahme der Protozoen erkannt.
Die Protozoen oder Urtiere bilden gleich einigen Formen der niedersten Pflanzen dadurch eine Ausnahme, daß sie während ihres ganzen Lebens auf dem Standpunkt eines einzelligen Wesens verharren, also morphologisch stets der Eizelle gleichwertig bleiben.
Die Entwicklung der übrigen Lebewesen war somit nichts anderes als eine fortgesetzte, von bestimmten Wachstumsgesetzen beherrschte und durch Teilung bewirkte Vermehrung von Zellen, auf deren Anordnung und Umbildung sich alle Organe zurückführen ließen. So war man auf dem Wege der Histologie sowohl als durch die Entwicklungsgeschichte zu dem Ergebnis gelangt, daß alle Lebewesen entweder einzellige Gebilde oder Zellvereinigungen, Zellenstaaten sind, in welchen jede einzelne Zelle als Elementarorganismus in den Dienst des Gesamtorganismus gestellt ist.
Eine systematische Darstellung gab Schwann seiner Lehre in der Schrift: »Mikroskopische Untersuchungen über die Übereinstimmung in der Struktur und dem Wachstum der Tiere und Pflanzen«224.
Während es ein Leichtes war, den zelligen Bau der Pflanzen nachzuweisen, boten die tierischen Gewebe mit ihren weitgehenden Abänderungen des Grundtypus der Zelle besondere Schwierigkeiten. Dieser Schwierigkeiten wußte Schwann durch die Ausbildung der mikroskopischen Technik und ein beharrliches Verfolgen des leitenden Grundgedankens Herr zu werden.
Eine entscheidende Rolle bei der Beantwortung mancher Frage spielte das Studium der Entwicklung. Nur an der Hand der Entwicklungsgeschichte ließ sich dartun, daß im fertigen Zustande so außerordentlich verschiedenartige Dinge wie Muskeln, Nerven und Nägel aus Zellen entstehen, welche durchaus den Pflanzenzellen entsprechen.
Indessen erwies sich nicht jede Zelle des Tieres als ein den Pflanzenzellen entsprechendes Gebilde. Wollte Schwann Zellen tierischer Gewebe jenem Elementargebilde der Pflanzen zur Seite stellen, so konnte dies mit Sicherheit nur auf einem der folgenden[Pg 159] Wege geschehen. »Entweder zeigt man«, sagt Schwann, »daß ein großer Teil der tierischen Gewebe aus Zellen, von denen jede ihre besondere Wand haben muß, entsteht oder besteht. Oder man weist bei einem einzelnen, aus Zellen bestehenden tierischen Gewebe nach, daß in diesen Zellen ähnliche Kräfte wirken, wie in den Pflanzenzellen, d. h. daß Ernährung und Wachstum auf dieselbe oder eine ähnliche Art vor sich gehen.« Von diesem Gesichtspunkte aus betrachtete er z. B. die Sache, als er gelegentlich seiner Untersuchungen über die Nervenendigungen in dem Schwanze der Froschlarven nicht nur die schöne zellige Struktur der Chorda dorsalis225 sah, sondern auch die Kerne in den Zellen der Chorda entdeckte. Auch das Innere der Chorda von Fischen gleicht ganz dem Zellgewebe der Pflanzen (siehe Abb. 28). Schwann erkannte an den Berührungsstellen dreier Zellen, daß jede Zelle der Chorda von einer besonderen Haut umgeben ist. Die Zellen waren von sehr verschiedener Größe, sie hatten eine unregelmäßige, polyedrische Gestalt; ihre Wände waren sehr dünn, farblos, glatt, fast vollkommen durchsichtig, fest und wenig dehnbar.
Bei weitem die meisten dieser Zellen enthielten einen sehr deutlichen Kern. Er stellte ein etwas gelblich gefärbtes Scheibchen dar, von ovaler Form, etwas kleiner als ein Froschblutkörperchen und fast ebenso platt. In diesem Scheibchen erblickte Schwann einen oder zwei dunkle, scharf umschriebene Flecken. Das Scheibchen glich also durchaus dem Kern der Pflanzenzellen mit seinen Kernkörperchen und war mikroskopisch gar nicht davon zu unterscheiden.
Als ein Gewebe, das sich gleichfalls zum Nachweis der zelligen Struktur des Tierkörpers vortrefflich eignete, erkannte Schwann das Knorpelgewebe. Es zeigte sich aus kleinen, polyedrischen, dicht[Pg 160] aneinander liegenden Zellen mit abgerundeten Ecken zusammengesetzt. Der Zellinhalt war durchsichtig und ließ an einigen Zellen schon im frischen Zustande, an anderen erst nach der Einwirkung von Wasser einen kleinen, blassen, runden Kern erkennen. Jede Zellhöhle zeigte sich mit einem dicken Ring, ihrer Wand, umgeben, deren äußere Begrenzung bald mehr, bald weniger deutlich war. Zwischen zwei Zellen flossen diese äußeren Umrisse zu einer Linie zusammen, liefen aber auseinander, wenn die Berührung der Zellwände aufhörte, so daß oft ein drei- oder viereckiger Zwischenraum, gefüllt mit einer Art Interzellularsubstanz zwischen den Zellwänden übrig blieb.
So führte die Untersuchung über die Chorda dorsalis und die Knorpel zu dem Hauptergebnis, daß diese Gewebe aus Zellen bestehen, welche durchaus den Zellen der Pflanzen entsprechen. Indem Schwann seine Untersuchung auf die Knochen, Muskeln, Nerven, Gefäße und Oberhautbildungen ausdehnte, kam er bezüglich dieser Gewebe zu dem gleichen Schluß. Es war somit eine Hauptscheidewand zwischen Tier- und Pflanzenreich, die vermeintliche Verschiedenheit des Gefüges nämlich, gefallen. Von jetzt an entsprachen bei der Untersuchung von tierischen Geweben die Bezeichnungen Zelle, Zellhaut, Zellinhalt, Kern, Kernkörperchen durchaus den gleichnamigen Teilen der Pflanzenzellen.
Mit der Erkenntnis, daß sich jeder Organismus aus Einzelwesen niederer Ordnung zusammensetzt und gleichsam einen Staat bildet, änderte sich auch die Auffassung vom Leben. Es erschien nicht mehr an ein bestimmtes Zentrum, wie das Nervensystem, gebunden. So sagt Virchow, der in seiner Zellularpathologie226 Schwanns Lehren ausbaute und auf das medizinische Gebiet übertrug, jedes Tier erscheine als eine Summe vitaler Einheiten, von denen jede den vollen Charakter des Lebens an sich trage. Die Einheit des Lebens könne also nicht an einem gewissen Punkte, z. B. dem Gehirn, gesucht werden, sondern nur in der bestimmten Einrichtung, die jedes Element in sich trage. Jeder Organismus erscheint danach als eine Art von gesellschaftlicher Verknüpfung, in der die einzelnen Existenzen aufeinander angewiesen sind. Jede Zelle übt wie die einzelnen Bürger des Staates ihre besondere Tätigkeit aus. Sie ist indessen auf die Anregung, die sie von den anderen Zellen und Zellkomplexen her empfängt,[Pg 161] angewiesen. Auch die abnormen Vorgänge, die wir Krankheiten nennen, spielen sich nach der von Virchow begründeten und als Zellularpathologie bezeichneten Lehre an den einzelnen Zellen oder an bestimmten Zellgebieten ab. Damit wurde dem seit alters geführten Streit, ob die Krankheit wie eine geheimnisvolle Macht den ganzen Organismus beherrscht (Solidarpathologie) oder ob sie in einer Veränderung der Säfte, insbesondere des Blutes, besteht (Humoralpathologie) der Boden entzogen. Daß man bald nach der Begründung der Zellularpathologie immer deutlicher die Bazillen als die Erreger mancher Krankheiten kennen lernte, führte keine Änderung an der durch Virchow begründeten Auffassung herbei. Man erkannte nämlich, daß es sich bei den durch parasitäre Mikroorganismen bewirkten Infektionskrankheiten um Giftwirkungen der von den Parasiten ausgeschiedenen Stoffe handelt.
Einen wichtigen Fortschritt bedeutete Virchows Auffassung von der Entstehung der Zelle. Schwann und andere hatten noch angenommen, daß die Zellen aus gewissen, zwar aus organischer Substanz bestehenden, aber noch nicht organisierten Bildungsflüssigkeiten (Cytoblastem) hervorgehen. Virchow dagegen zeigte, daß es eine derartige Zellenentstehung ebensowenig gibt wie eine Generatio aequivoca, d. h. eine Urzeugung von Organismen. Wo eine Zelle entsteht, da muß eine Zelle vorausgegangen sein, ebenso wie das Tier nur aus dem Tiere, die Pflanze nur aus der Pflanze entstehen kann. Auf diese Weise ist, wenn es auch einzelne Punkte gibt, wo der strenge Nachweis noch nicht geführt werden konnte, doch als Prinzip gesichert, daß in der ganzen Reihe alles Lebendigen ein ewiges Gesetz der kontinuierlichen Entwicklung herrscht227.
War auch der Kern der neu gewonnenen Anschauung ein richtiger, so hat man sie in ihrer Bedeutung als Erklärungsprinzip zunächst doch, wie es mit allem, was neu ist, zu geschehen pflegt, erheblich überschätzt. »Die Zelle wurde für die Biologie, was das Atom für die Chemie bedeutet. Alle allgemeinen Begriffe wurden beseitigt und durch die Zellentheorie angeblich erklärt. Die Erblichkeit, die Variabilität, das Leben, die Beseeltheit und andere noch so dunkle Erscheinungen wurden auf Zellen und ihre Teile zurückgeführt«228.
Am meisten schoß Schwann selbst, von der Wichtigkeit seiner Entdeckung durchdrungen, in seiner Theorie der Zellen über das Ziel hinaus. Die Zellbildung betrachtete er als eine Art Kristallisationsprozeß, und die Organismen erschienen ihm als die Formen, unter denen imbibitionsfähige Stoffe kristallisieren. Der Organismus entsteht »nach blinden Gesetzen der Notwendigkeit, die ebenso durch die Existenz der Materie gesetzt sind, wie die Kräfte in der anorganischen Natur«. Jeder Elementarteil soll ein selbständiges Leben besitzen und der ganze Organismus nur durch die Wechselwirkung der einzelnen Elementarteile bestehen.
Den eifrigsten Bundesgenossen fand Schwann bei seiner Begründung der Zellenlehre in dem Botaniker Schleiden. Schon vor dem Erscheinen von Schwanns »Untersuchungen« hatte Schleiden den Satz ausgesprochen, daß die Zelle das eigentliche Elementarorgan der Pflanze sei. Auch auf den Inhalt und die Entstehung der Zelle lenkte Schleiden das Augenmerk, wenn es ihm selbst auch nicht gelang, richtige Vorstellungen über diese Dinge zu gewinnen.
Schleiden229 widmete sich in Göttingen und in Berlin der Botanik und der Physiologie und wurde 1839 nach Jena berufen. Er wirkte vor allem als Reformator der Botanik, indem er an die Stelle des immer noch die überwiegende Tätigkeit der Botaniker ausmachenden Sammelns und Beschreibens von Pflanzen eine mit den Hilfsmitteln der Chemie und der Physik ausgerüstete Untersuchungsweise zu setzen und die Erforschung des Pflanzenlebens als das würdigste Ziel der botanischen Wissenschaft hinzustellen suchte. In diesem Sinne bahnbrechend wirkte Schleiden vor allem durch sein Werk »Die Botanik als induktive Wissenschaft« (1842). Weitere Kreise machte Schleiden mit diesem neuen und echten Gehalt der Botanik durch das populäre Werk »Die Pflanze und ihr Leben« bekannt230.
Auf den Inhalt der Zelle lenkte sich die Aufmerksamkeit der Botaniker, als man in den Zellen eigentümliche Bewegungen wahrnahm231, die sich nur als Lebensäußerungen deuten ließen. Anfänglich war man sich über das Substrat, an dem sich diese selbsttätigen Bewegungen abspielen, gar nicht im klaren. Man sprach[Pg 163] zuerst nur von Bewegungen des Zellsaftes, bis man außer dieser von dem reinen Wasser nur wenig abweichenden Lösung noch eine schleimige Substanz wahrnahm und als den eigentlichen Sitz des Lebens erkannte. Daß sich ein Teil dieser Substanz durch größere Konsistenz auszeichnet, hatte man schon 1831 wahrgenommen232. Man sah, daß dieser Zellkern bei der Zellteilung eine ganz wesentliche Rolle spielt. Er zerfällt, wie 1835 wahrgenommen wurde233, in zwei Hälften, die darauf durch eine Scheidewand getrennt werden. Die schleimige, den Zellkern als Bestandteil einschließende Substanz, die man zuerst für Gummi hielt, wurde als ein stickstoffhaltiger, in seiner ganzen Beschaffenheit dem tierischen Eiweiß ähnlicher Stoff erkannt und als Protoplasma bezeichnet234.
Daß man in dem Protoplasma der Pflanzen und der entsprechenden Substanz der tierischen Zelle, der Sarkode, den eigentlichen Träger des Lebens vor sich habe, wurde durch die Entdeckungen der vierziger und der fünfziger Jahre des 19. Jahrhundert immer mehr zur Gewißheit. Man bemerkte nicht nur die Bewegungserscheinungen, die sich im Innern der Zelle an dem Protoplasma abspielen, sondern man sah, daß letzteres auch ohne Zellhaut lebensfähig ist, und daß die Zellhaut von dem Protoplasma erzeugt wird, wie etwa die Schnecke ihr Haus absondert. Als Schwärmspore sah man das Protoplasma der Pflanzen sogar rasche, fast willkürlich erscheinende Ortsveränderungen durchmachen235.
An all diese für das Verständnis der Natur der Zelle äußerst wichtigen Tatsachen schloß sich die Entdeckung, daß die Chlorophyllkörner, in denen sich die Assimilation, die Erzeugung neuer organischer Substanz aus anorganischen Verbindungen, abspielt, wie die Zellkerne, geformte Teile des Protoplasmas sind. Als erstes sichtbares Assimilationsprodukt sah man in den Chlorophyllkörnern die Stärke auftreten. Die Natur dieses Stoffes wurde 1858 durch Nägeli ergründet236. Nägeli schuf in seinem Werke über die Stärkekörner die Theorie des Wachstums der organisierten Körper. Er zeigte, daß ihre Zunahme nicht in Analogie mit der Kristallbildung durch Anlagerung neuer Substanz an die bestehende er[Pg 164]folgt, sondern daß die organischen Körper durch Einlagerung neuer Moleküle zwischen die vorhandenen wachsen237.
Nägeli238 hat auch die Kryptogamenkunde und die Einsicht in die Entwicklungsvorgänge durch bahnbrechende Untersuchungen gefördert. Die Frage nach der Entwicklung der Zelle und der Entstehung der Gewebeformen, d. h. der von bestimmten Wachstumsgesetzen beherrschten Zellverbände, hatte Schleiden besonders in Fluß gebracht. Er war indessen so wenig zur Einsicht in diese schwierigen Gegenstände gelangt, daß sich seine Ansichten als unhaltbar erwiesen und durch Nägelis in den Grundzügen noch heute gültige Theorie ersetzt wurden.
Nägeli239 erkannte vor allem, daß die Bildung neuer Zellen sich stets an dem Protoplasma schon bestehender Zellen vollzieht, während man vor ihm, als man das Protoplasma in seiner Bedeutung als Sitz des Lebens noch nicht erkannt hatte, die Entstehung neuer Zellen zwischen den vorhandenen älteren für möglich hielt. Ferner zeigte Nägeli, daß die Vermehrung der Zellen in den wachsenden vegetativen Organen auf Zellteilung beruht. Der Vorgang hebt mit einer Teilung des Zellinhalts an und ist beendet, wenn sich zwischen den individualisierten Massen ein Stück Zellhaut als Scheidewand gebildet hat. Diese, sowie jede andere Zellwandbildung besteht nach Nägeli in der Abscheidung stickstoffreier Zellulose aus der stickstoffhaltigen Substanz des Protoplasmas.
Andere Arten der Zellbildung, darunter die sogenannte freie, kommen nach Nägeli nur gelegentlich, z. B. bei der Fortpflanzung vor. So entstehen die Keimzellen vieler Pilze durch Abschnürung, während bei anderen Pilzen der Inhalt einer Zelle sich in viele kleine Massen sondert, aus welchen dann durch Membranbildung die Sporen hervorgehen. Indessen auch das Gegenteil findet nach Nägeli statt, indem eine Keimzelle aus der Vereinigung des plasmatischen Inhalts mehrerer Zellen entsteht.
Groß war der Abstand zwischen diesen Befunden, auf welchen die Anatomie und die Entwicklungslehre sicher weiterbauen konnten[Pg 165] und der Ansicht des 18. Jahrhundert, nach der die Zellen als Hohlräume in einer ursprünglich gleichartigen Masse240 etwa so entstehen sollten, wie sich die Luftblasen in dem Brotteig bilden.
Erst nachdem man die Natur und die Entstehung der Pflanzenzelle in der Hauptsache richtig erkannt hatte, ließ sich die Entwicklung der Gewebe von Zelle zu Zelle verfolgen. Seit der Mitte des 19. Jahrhunderts galt keine pflanzenanatomische Aufgabe für gelöst, wenn sich die Kenntnis des fertigen Organes oder Gewebes nicht mit der Einsicht in seine durch möglichst zahlreiche Stadien verfolgte Entwicklung verknüpfen ließ. Man erkannte, daß sich nur auf diesem Wege mit der Einsicht in den physiologischen Vorgang die durch ihn bestimmte morphologische Natur der pflanzlichen Gewebe erkennen läßt.
Auch nach dieser Richtung waren vor allem Nägelis Forschungen bahnbrechend, weil sie zu einer Einteilung der Gewebearten nach morphologischen Gesichtspunkten führten241. Nägeli unterschied das im Zustande der Teilung begriffene Gewebe (Meristem) von dem Dauergewebe. Beide werden nach der Form der Zellen in Prosenchym (Fasergewebe) und Parenchym (Füllgewebe) eingeteilt. Das Teilungsgewebe der jugendlichen Organe (Urmeristem) z. B. besitzt parenchymatische, das der Bildungsschichten prosenchymatische Zellen (Kambiumring). Diese von Nägeli aufgefundenen Grundzüge einer genetischen Gewebelehre sind für die weitere Entwicklung der Pflanzenanatomie maßgebend geblieben.
Mit Nägelis großer Arbeit über die Stärkekörner beginnt eine neue Phase für die Untersuchung der Gewebselemente. Hatte man sich bis dahin darauf beschränkt, die Bestandteile der Zellen in ihrer Form und in ihren Beziehungen zu einander kennen zu lernen, so suchte man von jetzt an auch in die innere Struktur, in den molekularen Aufbau der Stärke, der Zellwand und später auch des Kernes und des Protoplasmas einzudringen. Zu diesem Zwecke mußte die mikroskopische Technik242 stetig vervollkommnet und mit neuen, der Rüstkammer der Chemie und der Physik entlehnten Hilfsmitteln versehen werden. An die Stelle des bloßen Schauens trat das Experimentieren unter dem von Jahr zu Jahr verbesserten[Pg 166] Mikroskop. Infolge der Anwendung der verschiedenartigsten chemischen Reagentien, die man auf die mikroskopischen Präparate wirken ließ, erwuchs als ein besonderer Wissenszweig die Mikrochemie. Durch die Verbindung des Mikroskops mit dem Polarisationsapparat war es ferner unter Benutzung aller Methoden der physikalischen Kristallographie möglich, aus dem optischen Verhalten der Zellbestandteile auf die innere Struktur der organisierten Substanzen zu schließen. Das Ergebnis war eine auffallende Analogie ihrer Teile mit kristallinischen Gebilden. Nägeli wies nach, daß sich die Mizellen (Molekularverbände) der organisierten Substanzen wie optisch zweiachsige Kristalle verhalten. Die Mizellen als die kleinsten Teile der organisierten Substanz sind nach ihm winzige, jenseits der Beobachtung liegende Kristalle, die aus tausenden von chemischen Molekülen kristallinisch aufgebaut sind. Das Wachstum, das durch bloße Anlagerung nicht erklärt werden konnte, besteht nach dieser Theorie darin, daß sich neue Moleküle an vorhandene Mizellen anlagern oder daß sich neue Mizellen in den zwischen den alten befindlichen, Wasser enthaltenden Zwischenräumen bilden.
Der Bau des Protoplasmas, dessen Kenntnis zu den ersten Voraussetzungen für ein tieferes Eindringen in das Wesen dieser Substanz gehört, bedarf nach vielen Richtungen noch der Aufklärung, zumal die neuesten mikroskopischen Untersuchungen das unerwartete Resultat ergeben haben, daß die Plasmakörper der einzelnen Zellen durch feine Fäden miteinander in Verbindung stehen. Hierdurch erleidet die bisherige Auffassung von der Individualität der Elementarorganismen eine weitgehende Einschränkung, während andererseits nach Erkenntnis dieser Sachlage sich für manches bisher wenig zugängliche Problem, wie z. B. die Reizfortpflanzung und die Saftleitung, die Möglichkeit einer Lösung eröffnet.
Wie man in der Physik mit den Imponderabilien und in der Physiologie mit der Lehre von der Lebenskraft aufräumen mußte, um dem Zeitalter des Energieprinzips den Boden zu bereiten, so mußte auch aus der Erdgeschichte ein Begriff verschwinden, der einer einheitlichen Auffassung des Naturgeschehens im Wege stand. Es war dies der mit dem Namen der Katastrophentheorie243 verbundene Lehrbegriff.
Wir haben bereits an früherer Stelle244 erfahren, daß schon im 18. Jahrhundert geologische Anschauungen entstanden, welche den modernen Lehren der Geologie darin sehr nahe kamen, daß man außergewöhnliche und übernatürliche Einflüsse für die Geschichte unseres Planeten nicht in Anspruch nahm, sondern alles geologische Geschehen aus den noch heute wirkenden Kräften zu erklären suchte. Von dieser heute allgemein als richtig anerkannten Auffassung wurde die Wissenschaft durch Cuviers Katastrophen[Pg 168]theorie für mehrere Jahrzehnte wieder abgedrängt. Allein schon im ersten Viertel des 19. Jahrhunderts tauchten gewichtige Zweifel an dieser Theorie auf. Die Akademie zu Göttingen fühlte sich deshalb veranlaßt, eine Preisaufgabe auszuschreiben, worin sie »die gründlichste und umfassendste Untersuchung über die Veränderungen der Erdoberfläche« verlangte. Und zwar sollten nicht nur diejenigen Veränderungen in Betracht kommen, von denen die Geschichte Kunde gibt. Sondern es handelte sich vor allem um die Schlüsse, die sich aus den in historischer Zeit erfolgten Änderungen auf die in vorgeschichtlicher Zeit erfolgten ziehen lassen. Eine geradezu bewundernswerte Lösung dieser Preisaufgabe brachte die Arbeit des Deutschen von Hoff245. Naturgemäß baute sich von Hoffs »Geschichte der durch Überlieferung nachgewiesenen natürlichen Veränderungen der Erdoberfläche« in erster Linie auf historisches Quellenstudium auf, das mit erstaunlicher Gelehrsamkeit in kritischer und gedankenreicher Darstellung verwertet wurde. Indessen wurde auch der zweite Teil der Aufgabe gelöst, und zwar durchaus im Sinne der Anschauungen, die man später oft mit Unrecht ausschließlich auf den englischen Geologen Lyell zurückgeführt hat. Mit voller Klarheit geht das aus den Worten hervor, in denen von Hoff das Ergebnis seiner Untersuchungen zusammenfaßt. Sie lauten etwa folgendermaßen: »Weder die Überlieferungen noch die Beobachtungen geben uns Beweise für eine einmalige oder eine wiederholte allgemeine Umwandlung oder Zerstörung einer ganzen organischen Schöpfung. Überwiegende Gründe fordern vielmehr, daß man die Veränderungen, die man auf der Erdoberfläche wahrnimmt, allein den Wirkungen derjenigen Kräfte zuschreiben darf, durch die man noch jetzt jede Naturerscheinung hervorgebracht sieht«. Es genüge »die für uns unermeßliche Größe der Zeiträume, in welchen diese Kräfte allmählich und immerfort gewirkt« hätten, um die Veränderungen aus eben jenen Kräften zu erklären.
Das Hauptverdienst um den weiteren Ausbau dieser Lehre gebührt jedoch Lyell. Es darf nur ein von Hoff, wie es so oft geschehen, nicht neben ihm ganz in den Hintergrund gestellt werden. Hatte letzterer die Frage mehr vom Standpunkte eines[Pg 169] weitblickenden Historikers in Angriff genommen, so behandelte sie Lyell in seinen epochemachenden »Prinzipien der Geologie« mehr als Naturforscher246.
Charles Lyell wurde 1797 in Schottland geboren und starb 1875 in London. Er stammte aus einer reichbegüterten Familie und konnte sich infolgedessen ausschließlich der Wissenschaft und geologischen Forschungsreisen widmen. Der Erfolg seines Hauptwerkes, der Prinzipien, war ein beispielloser. Die Beseitigung teleologischer Vorurteile und mystischer Vorstellungen, sowie die Zurückführung alles Geschehens auf sichergestellte, aus der Erfahrung geschöpfte Begriffe wurde durch Lyell zur Losung. Nunmehr konnte die Geologie, die von jeher ein beliebter Tummelplatz der Hypothesen gewesen war, nicht länger an der Katastrophentheorie Cuviers und seiner Annahme wiederholter Schöpfungen festhalten. Unter der Voraussetzung, daß die gestaltenden Kräfte während der verflossenen Perioden und der Jetztzeit gleichartig gewesen und der gesamte Naturverlauf ohne Unterbrechung vor sich gegangen sei, erklärte Lyell die gewaltigen Veränderungen, welche die Erdrinde aufweist, aus der vieltausendfachen Summierung der noch heute wirkenden Ursachen, der actual causes. Nach diesem von Lyell gebrauchten Ausdruck hat man die neue, durch von Hoff und Lyell begründete Lehre auch wohl als Aktualismus bezeichnet.
Voraussetzung für diese Theorie war allerdings eine sehr viel größere Zeitdauer des Ablaufs der Erdgeschichte, als man bisher angenommen hatte. Für die ersten Geologen war es nach Lyell schon deshalb unmöglich zu richtigen Folgerungen zu gelangen, weil sie über das Alter der Welt und den Zeitpunkt der ersten Erschaffung lebender Wesen ganz falsche Vorstellungen hatten. Wenn die früheren Vorurteile noch heute beständen, so würden sie eine ähnliche Kette von Ungereimtheiten hinsichtlich der Zeitdauer geologischer Perioden zur Folge haben. Lyell erläuterte dies durch folgendes Beispiel:
Angenommen man könnte mit einem Blicke alle in Island, Italien, Sizilien und anderen Teilen Europas während der letzten 5000 Jahre entstandenen vulkanischen Kegel und sämtliche in[Pg 170] diesem Zeitraum ausgeflossenen Lavaströme überschauen, sowie die durch Erdbeben veranlaßten Verwerfungen, Senkungen und Hebungen, die den verschiedenen Deltas hinzugefügten Landmassen, wie auch diejenigen, welche das Meer verschlang. Würde man sich dann vorstellen, alle diese Begebenheiten hätten innerhalb eines einzigen Jahres stattgefunden, so muß man ganz andere Vorstellungen von der Wirksamkeit der geologischen Kräfte bekommen. Wenn man aber auf Jahrtausende schloß, wo die Sprache der Natur auf Jahrmillionen hindeutete, so konnten jene älteren Geologen, wenn sie logisch von solch falschen Voraussetzungen weiter gingen, zu keinem anderen Schluß gelangen, als daß mit der Weltordnung eine völlige Revolution vor sich gegangen sei.
Unermeßliche Zeiträume bilden die Voraussetzung, wenn man unter der Annahme der Gleichartigkeit der früheren mit den jetzigen Naturvorgängen die Bildung der gewaltigen sedimentären Schichten aus noch heute wirkenden Ursachen erklären will.
Hinderlich für die Entwicklung richtiger geologischer Ansichten ist nach Lyell auch die Unkenntnis über die Vorgänge im Erdinnern und in der Tiefe der Ozeane gewesen. Erst die moderne Forschung hat auf diese geologischen Vorgänge einiges Licht geworfen. Lyell dagegen konnte noch sagen, der Geologe befinde sich diesen Vorgängen gegenüber in der gleichen Lage wie jemand, der Steine brechen und verfrachten sieht und sich nun abmüht, zu begreifen, was für ein Gebäude aus diesen Steinen hergerichtet werden soll. Während nämlich der Geologe auf das Land beschränkt sei und die Abtragung der Gebirge, sowie ihren Transport nach dem Meere beobachte, könne er sich die neuen Ablagerungen, welche die Natur am Grunde der Gewässer aufbaue, nur ausmalen.
Daß in der Erdentwicklung auch außergewöhnliche Katastrophen vorgekommen seien, ja selbst in Zukunft vorkommen werden, stellt Lyell übrigens keineswegs in Abrede. Nur von dem gesamten regelmäßigen Verlauf abweichende Erscheinungen hält er für ausgeschlossen. Als ein Beispiel für die Möglichkeit der Überflutung eines beträchtlichen Teiles des festen Landes führt er die Verhältnisse Nordamerikas an. Die Existenz der ungeheuren mehrere hundert Fuß über dem Meeresspiegel gelegenen Süßwasserbecken jenes Landes genüge, um infolge der fortschreitenden erodierenden Tätigkeit des Niagaraflusses oder infolge einer durch Erdbeben hervorgerufenen Spaltenbildung oder Senkung eine plötzliche Verwüstung Nordamerikas herbeizuführen.
Auch bei der Erklärung der durch die geologischen Befunde erwiesenen Klimaschwankungen betont Lyell immer wieder die Gleichartigkeit der früher wirkenden mit den heutigen Kräften. Er sucht solche Schwankungen aus der Verlegung von Meeresströmungen, dem Wechsel in der Verteilung von Wasser und Land und ähnlichen Einflüssen zu erklären.
Spekulationen über die frühesten Stadien der Erdentwicklung war Lyell nicht zugetan. Nach ihm wird unser Planet erst Gegenstand der wissenschaftlichen Erforschung und Betrachtung, nachdem sich auf ihm mit dem heutigen vergleichbare Zustände herausgebildet haben.
Hinsichtlich der organischen Welt und ihrer durch die paläontologischen Forschungen erwiesenen Veränderungen stand Lyell, als er »die Prinzipien« schrieb, noch auf dem Standpunkte Linnés und Cuviers. Auch ihm schien damals jede Art mit den ihr eigentümlichen Merkmalen erschaffen worden zu sein. Auf eine wissenschaftliche Erklärung der Tatsache, daß sich die Faunen und die Floren früherer Perioden von der heutigen Lebewelt unterscheiden, war damit Verzicht geleistet.
Sofort nach der Begründung der Deszendenztheorie durch Wallace und Darwin im Jahre 1858 änderte Lyell indessen seinen Standpunkt, indem er die schon von Lamarck behauptete Verknüpfung aller organischen Bildungen anerkannte. Er gehörte mit dem Philosophen Spencer und dem Biologen Huxley zu den ersten, die sich für den Transformismus in der von Wallace und Darwin ihm verliehenen Gestalt erklärten. Infolgedessen erblickte Lyell in seiner letzten Schaffensperiode seine wichtigste Aufgabe darin, die biologischen mit den geologischen Problemen in Beziehung zu setzen und unter dem neuen Gesichtspunkte auch die Herkunft und das Alter des Menschengeschlechts in den Kreis wissenschaftlicher Betrachtung zu ziehen247.
Unter den Forschern, welche die Lebewelt in ihrer geologischen Bedeutung erkannten und ihre Grenzen in Raum und Zeit beträchtlich erweiterten, ist vor allem Ehrenberg zu nennen.
Christian Gottfried Ehrenberg248 (1795-1876) gehörte dem Kreise der Naturforscher an, die Alexander von Humboldt nach seiner Rückkehr aus Paris (1827) um sich vereinigte und auf jede Weise zu fördern wußte. Ehrenberg ist der hervor[Pg 172]ragendste Mikroskopiker jener Zeit. Wie kein anderer verstand er es, die Welt des kleinsten Lebens den über seine Entdeckungen staunenden Zeitgenossen zu erschließen. Schon seine Erstlingsarbeit, die er als Dreiundzwanzigjähriger unter dem Titel »Sylvae rnycologicae Berolinenses« (Die Pilzflora Berlins) erscheinen ließ, machte ihn berühmt. Das Motto, das er ihr mitgab, blieb für alle späteren Arbeiten Ehrenbergs maßgebend. Es lautet:
»Der Welten Kleines auch ist wunderbar und groß,
Und aus dem Kleinen bauen sich die Welten«.
Diese Arbeit vom Jahre 1818 bereicherte die Wissenschaft mit einer Menge neuer Formen. Bald darauf lieferte Ehrenberg den ersten Nachweis einer kryptogamischen Zeugung, nämlich der Konjugation (Zellpaarung) der Zweige eines Schimmelpilzes249.
Während der Zeit von 1820-1825 unternahm Ehrenberg in Gemeinschaft mit Hemprich eine naturwissenschaftliche Durchforschung der Nilländer. Die Expedition ist auch deshalb erwähnenswert, weil sie eine der ersten größeren derartigen Unternehmungen ist, die von Preußen aus mit staatlichen Mitteln ins Werk gesetzt wurden. Ihre Ergebnisse waren recht bedeutend. In zahlreichen Sendungen wurden 34000 Tier- und 46000 Pflanzenexemplare, im ganzen etwa 7000 Arten angehörend, nach Berlin gesandt. Dazu kamen noch Mineralien, Gesteine und ethnographische Gegenstände. Durchforscht wurden nicht nur Unter- und Oberägypten, sondern auch Nubien, die Küsten des roten Meeres und Syrien. Großer indessen als die Entdeckungen am Nil waren diejenigen, die Ehrenberg mit seinem Mikroskop nach der Rückkehr von einer mit Humboldt nach Mittelasien unternommenen Reise in den Tümpeln um Berlin gemacht hat. Mit einer Ausdauer sondergleichen widmete er sich seitdem (1829) der Erforschung derjenigen Mikroorganismen, die wir heute als Infusorien, Bakterien, Diatomeen und Rädertiere unterscheiden. Er war der erste, dem es gelang, Klarheit und Übersicht in den schier unendlichen, verwirrenden Formenreichtum zu bringen, welchen diese Wesen darbieten. Insbesondere widerlegte er den Wahn, daß sie von selbst entständen und sich ineinander umwandeln könnten. Die größte Überraschung rief die von Ehrenberg entdeckte Tatsache hervor, daß die blutähnliche Substanz, die sich mitunter auf Brot findet, aus kleinsten Lebewesen be[Pg 173]steht. Damit fand das Bluten der Hostien, das im Mittelalter so oft den religiösen Fanatismus erregt hatte, seine naturgemäße Deutung. Auch zur Aufklärung des Meerleuchtens und des blutigen Regens, einer Erscheinung, die so häufig ganze Völkerschaften in Schrecken versetzt hat, trug Ehrenberg bei. In diesem und in jenem Falle handelte es sich um die überraschende Gesamtwirkung massenhaft auftretender Mikroorganismen, deren Vorhandensein er für die Tiefen des Ozeans, die höchsten Bergspitzen und den Schnee der Polarzone nachwies. Die Zusammenfassung all dieser Forschungen war Ehrenbergs großes, »Die Infusorien als vollkommene Organismen« betiteltes Werk vom Jahre 1838250. Der wesentlichste Mangel dieses Werkes, der aber klein ist gegenüber dem großen Gewinn, den es brachte, besteht darin, daß Ehrenberg die innere Organisation, welche die Rädertierchen darbieten, auch bei den Infusorien zu erblicken glaubte.
Eine neue Richtung und eine ganz ungeahnte Erweiterung gewannen Ehrenbergs Untersuchungen, als er im Franzensbader Kieselgur die Kieselpanzer kleiner Organismen entdeckte. Dies führte ihn dazu, ähnliche jüngere und ältere geologische Bildungen zu untersuchen. Es ergab sich, daß zahlreiche sedimentäre Bildungen bis zu den ältesten Perioden, darunter solche, die man bisher für azoisch gehalten, die gleiche Zusammensetzung aus den Kalk- oder Kieselschalen kleinster Organismen aufweisen. Daß die Bildung sedimentärer Schichten noch heute durch die gleichen Umstände bedingt ist, vermochte Ehrenberg durch die Untersuchung des Meeresbodens und der Flußufer nachzuweisen251. Selbst der Baugrund Berlins ist z.T. auf diese Weise entstanden, wie Ehrenberg zur größten Überraschung seiner Mitbürger nachwies. Diese Forschungen Ehrenbergs, in denen eine ganz neue Wissenschaft emporwuchs, gipfelten in seinem zweiten Hauptwerk, der Mikrogeologie252.
Einen treffenden Ausdruck fand die Tätigkeit Ehrenbergs in folgenden, ihm von der Akademie gewidmeten Worten253: »Wir[Pg 174] sahen durch Ehrenbergs Forschungen den Sand aus den Wüsten Afrikas und vom Kreidegebirge des Jura, atmosphärischen Staub des atlantischen Ozeans, Blutregen und mittelalterliche Wundererscheinungen, Proben aus dem Tiefgrund des Golfstromes und aus dem mittelländischen Meere in mikroskopische Organismen sich auflösen und das unsichtbare Leben in die Systematik sich einordnen«.
Durch die wissenschaftliche Erforschung des Ozeans gelangte man auch zu der Einsicht, daß neben den mikroskopisch kleinen Bewohnern des Meeres vor allem die Korallentiere eine im geologischen Sinne gestaltende Wirkung ausüben. Mit den gewaltigen Bauten, welche diese Geschöpfe aufführen, wurde man zum ersten Male genauer durch die Cooksche Weltumsegelung bekannt. Auch die russische Südseeexpedition, an der Chamisso teilnahm (1814-1818), brachte manche wichtige Beobachtung. Die bedeutendste Arbeit über Korallen und Korallenriffe veröffentlichte 1842 Charles Darwin auf Grund der Ergebnisse der von ihm ausgeführten Beagle-Expedition254. Von ihm rührt die Einteilung der Korallenbauten in Saumriffe, Wallriffe und Lagunenriffe (Atolle) her, sowie die Annahme, daß sich aus einem Saumriff infolge der säkularen Senkung des Meeresbodens zunächst ein Wallriff und schließlich ein Atoll bildet.
Darwin geht, um jene eigenartigen Bildungen zu erklären, von einer mit Korallenriffen umsäumten Insel aus. Wenn eine solche Insel mit ihrem Riff sich langsam senkt, so wird die lebende Masse, die sich am Rande des Riffes in der Brandung badet, so lange wachsen, bis sie die Oberfläche wiedergewinnt. Das Wasser wird gleichzeitig an der Küste emporsteigen, so daß die Insel niedriger und kleiner, und dementsprechend der Kanal zwischen dem inneren Rande des Riffes und der Küste breiter wird. So entsteht ein Wallriff. Sinkt dieses langsam abwärts, so werden die Korallen fortfahren, kräftig aufwärts zu wachsen. In dem Maße wie die Insel sinkt, wird das Wasser Zoll für Zoll die Küste erobern, die Bergspitzen, die zuerst getrennte Inseln innerhalb des Riffes bildeten, werden verschwinden, bis endlich der letzte und höchste Gipfel untertaucht. In dem Augenblick, in dem dies eintritt, hat sich ein vollkommenes Atoll gebildet.
Wenn die Folgezeit auch lehrte, daß Darwins Theorie nicht sämtliche Probleme aufklärt, die uns die Korallenriffe und die[Pg 175] Koralleninseln darbieten, so hat sie sich im großen und ganzen doch als zutreffend erwiesen. Auch die neuerdings als geologisches Forschungsmittel in Aufnahme gekommenen Tiefbohrversuche konnten Darwins Ansichten nur bestätigen. Die Bohrungen ergaben stellenweise eine Mächtigkeit der Korallenbildungen, die sich mit der Theorie, daß diese Bildungen durch Anschwemmungen entstanden seien, nicht vereinigen ließ.
Auch die Pflanzenwelt wurde in dieser Periode in ihrer geologischen Bedeutung gewürdigt. Seit 1830 etwa bediente man sich zur Untersuchung der pflanzlichen Überreste des Mikroskops, das später, nachdem man das Verfahren der Dünnschliffe ausgebildet hatte, bei der Untersuchung der Gesteine eine solch große Rolle spielen sollte. Man vermochte mit immer größerer Sicherheit den pflanzlichen Ursprung der fossilen Brennstoffe und die auf einen gleichen Ursprung hinweisende Struktur der verkieselten Hölzer nachzuweisen. Die Mächtigkeit der pflanzlichen Überreste ließ auch schon erkennen, daß ihre Bildung unermeßliche Zeiträume erfordert hat. Wenn man sich auch von dem Dogma, daß die Arten konstant seien und daß eine Folge von Neuschöpfungen stattgefunden habe, nicht ganz frei zu machen wußte, so wurde dieses Dogma durch die Fülle der paläontologischen Entdeckungen doch immer mehr erschüttert. Unger zum Beispiel, der zu den Begründern der Phytopaläontologie gehört, nahm für die Entwicklung der Vegetation als sicher an, daß sich die Pflanzenwelt stufenweise mit den großen geologischen Perioden herausgebildet habe.
Auch auf dem Gebiete der Gebirgskunde trat an die Stelle der Katastrophenlehre die Vorstellung einer allmählichen, aus den bekannten physikalischen Kräften zu begreifenden Entstehung. Während man vorher die großen Kettengebirge durch einen aus dem Innern der Erde in radialer Richtung wirkenden Druck entstehen ließ, begann man sie seit 1830 als Runzeln zu erkennen, die durch einen seitlichen Schub emporgefaltet werden. Beobachtungen, die im Schweizer Jura gemacht wurden, der noch heute als der reinste Typus eines Faltengebirges gilt, ließen zuerst an den alten Anschauungen irre werden. Gleichzeitig griff auch eine richtige Vorstellung von dem Zustandekommen derjenigen Phänomene Platz, die man als glazial bezeichnet. Man begann, weit von den heutigen Gletschern entfernte Geschiebe und Gesteinsschrammen auf eine frühere gewaltige Vergletscherung unserer heutigen Gebirge zurückzuführen. Zur Erforschung des Erratikums gesellte sich, seitdem[Pg 176] John Ross auf seiner Polarfahrt aus der Tiefe von 2000 Metern Schlamm vom Meeresboden heraufgeholt hatte, die Tiefseeforschung. Jetzt erst war man imstande, ein klares Bild von dem Aufbau der geologischen Schichten zu gewinnen. Wie diese Ansätze sich weiter entwickelten, wird an späterer Stelle gezeigt werden. Hier genügte der Nachweis, daß auch die Entwicklung der Geologie auf jene große Reform hindrängte, die um die Mitte des 19. Jahrhunderts die Naturwissenschaften umgestalten sollte.
Die Keime des Energieprinzips oder des Gesetzes von der Einheit und der Erhaltung der Kraft lassen sich bis in das 18. Jahrhundert und, wenn man nach den ersten Andeutungen sucht, sogar noch weiter zurückverfolgen. In der Entwicklung der Naturwissenschaften spielen die unlösbaren Probleme eine große Rolle. Das Bemühen Gold zu machen, hat zu vielen wichtigen chemischen Entdeckungen geführt. Eine ähnliche treibende Kraft wie das Goldproblem der Alchemisten besaß für die Mathematik das Problem der Quadratur des Kreises. In ihrem Suchen nach seiner Lösung wurde die Mathematik in hohem Grade gefördert, und das Problem kam erst zur Ruhe, als man die Unmöglichkeit seiner Lösung, nicht nur infolge der vielen vergeblichen Versuche eingesehen, sondern sie mathematisch bewiesen hatte. Auch die Physik hatte ihr unlösliches Problem. Ein jeder kennt es unter dem Namen des »Perpetuum mobile«. Eine Maschine, die ohne von außen zufließende Energie immerfort arbeitet! Was konnte es Wertvolleres geben? Das Nachgrübeln über das »Perpetuum mobile« dauerte so lange, bis im 18. Jahrhundert die Erkenntnis heranreifte, daß man auch hier Unmögliches gewollt habe. An die Stelle des unwissenschaftlichen Suchens nach einem »Perpetuum mobile« trat jetzt das wissenschaftliche »Prinzip vom ausgeschlossenen Perpetuum mobile« oder das Prinzip von der Erhaltung der Kraft.
Hervorgegangen war das Prinzip aus der Mechanik, und auf diese blieb es zunächst beschränkt. Die Untersuchung des Pendels bietet ein leicht faßliches Beispiel. Die Pendelbewegung besteht ja im Grunde genommen in dem Herabfallen und dem Emporsteigen eines Körpers. In seiner Anwendung auf diesen Vorgang lautet das Prinzip von der Erhaltung der Kraft: Wenn man die Richtung eines frei fallenden Körpers ändert, so kann er nur bis zu seiner ursprünglichen Höhe wieder emporsteigen, da die Wirkung stets der Ursache gleichwertig ist.
Es dauerte lange, bis man diesen Grundsatz ausgehend von der Mechanik auf die übrigen Naturerscheinungen anwandte. Dies rührte daher, daß man die Wärme, das Licht, die Elektrizität, den Magnetismus als feine unwägbare Stoffe, als Imponderabilien, auffaßte. Natürlich war damit eine scharfe Grenze zwischen der Physik jener ungreifbaren Imponderabilien und der Mechanik gegeben, da diese nur ruhende und bewegte Massen kennt und nach der Ursache von Ruhe und Bewegung forscht. Die erste Brücke von der Mechanik als Massenbewegung wurde in das Gebiet der Wärmelehre hinübergeschlagen. Wo Massenbewegung vernichtet wird, tritt Erwärmung ein. Umgekehrt läßt sich Wärme in Massenbewegung verwandeln. So kam es, daß die Hypothese von einem unwägbaren Wärmestoff der Vorstellung wich, daß wir es in der Körperwärme gleichfalls mit einer Bewegung und zwar mit einer inneren Bewegung zu tun haben. Eine derartige, innere Bewegung ließ sich kaum anders denken als ein Schwingen der kleinsten Körperteilchen. Daraus ergab sich ganz von selbst die Wiederbelebung der schon im Altertum entstandenen atomistischen Hypothese. Auch die Entwicklung der Chemie hatte die Wiederaufnahme der atomistischen Hypothese notwendig gemacht. Die chemischen Vorgänge wurden als ein Zusammentreten der Atome zu Molekülen und ein Zerfallen der Moleküle in einfachere und schließlich in Atome gedeutet. Wie aus der Wärmelehre, so verschwanden die Imponderabilien auch aus den übrigen Gebieten der Physik. Der Lichtstoff, das elektrische Fluidum, die verschiedenen Magnetismen, sie alle mußten der mechanischen Naturerklärung das Feld räumen. Jede Kraft erschien als Bewegung und die Umwandlung der Kräfte nur als eine Änderung in der Form der Bewegung. Durch bloßes Reiben geeigneter Stoffe oder auch durch chemische Umsetzung erzeugt man Elektrizität. Man lernte sie in chemische Wirkungen, in Licht, in Wärme, in Magnetismus umwandeln. Auf diesen mannigfachen Umsetzungen beruht die überall in unser Leben eingreifende Elektrotechnik. Ihre Geburtsstunde fällt mit der Entdeckung des Gesetzes von der Erhaltung der Kraft zusammen. Es ist das kein Zufall. Denn gerade die Umformungen des durch ein mechanisches Triebwerk erzeugten elektrischen Stromes haben neben anderen Beobachtungen zur Erkenntnis jenes großen, als Energieprinzip bezeichneten Gesetzes geführt.
Das Energieprinzip darf nicht als die Entdeckung eines einzelnen betrachtet werden. Wir sahen in den vorhergehenden Abschnitten dieses Bandes, wie sich die große Verallgemeinerung, die[Pg 179] es in sich birgt, auf nahezu sämtlichen Gebieten allmählich vorbereitete. Zum klaren Ausdruck gelangte das Prinzip im fünften Jahrzehnt des 19. Jahrhunderts durch drei Männer, die unabhängig voneinander dazu gelangten. Es waren dies die Deutschen Mayer und Helmholtz und der Engländer Joule. Auch der dänische Ingenieur Colding wird wohl zu den Begründern des Energieprinzips gezählt. Sein Verdienst ist jedoch weit geringer einzuschätzen als dasjenige der drei an erster Stelle genannten Forscher.
Mayer255 ging bei der Aufstellung des Energieprinzips von physiologischen Beobachtungen aus. Als er sich im Jahre 1840 in Java aufhielt, fiel es ihm bei Aderlässen auf, daß das Blut der Armvene eine ungemeine Röte besaß, so daß man glauben konnte, eine Arterie getroffen zu haben256. Den ansässigen europäischen Ärzten war dieses Verhalten des Blutes von Personen, welche den Übergang aus einem gemäßigten Klima zur Glut der Tropen durchmachen, wohl bekannt, ohne daß dadurch ihr Nachdenken besonders rege geworden wäre, während Mayer, ausgehend von dieser unscheinbaren Beobachtung, zu dem tiefsten Einblick in den Zusammenhang des Naturganzen gelangen sollte. Indem er die Farbenänderung, welche das Blut in den Kapillargefäßen erleidet, als den sichtbaren Reflex der in dem Körper vor sich gehenden Oxydation betrachtete257, kam Mayer auf den Gedanken, nach einer Größenbeziehung zwischen der Wärmeentwicklung und dem oxydierten Material zu suchen, um, wie er sich ausdrückt, die Bilanz zwischen Leistung und Verbrauch des Organismus zu ziehen. Da nun ein Tier die Fähigkeit besitzt, Wärme auf mechanische[Pg 180] Art, z. B. durch Reibung hervorzurufen, so erhebt sich die Frage, ob die gesamte, teils unmittelbar, teils auf mechanischem Wege, vom Organismus erzeugte Wärme dem im Körper vor sich gehenden Verbrennungseffekte quantitativ entspricht oder äquivalent ist. Wenn wir dies bejahen, so ist auch zu vermuten, daß die zur Gewinnung von Wärme auf mechanischem Wege aufgewandte Arbeit einem bestimmten Bruchteil dieses Effektes entsprechen wird. So wurde Mayer darauf geführt, aus der physiologischen Verbrennungstheorie auf eine unveränderliche Größenbeziehung zwischen Wärme und Arbeit zu schließen.
Die physikalische Forschung war damals schon auf dem Punkte angelangt, daß Mayer, ohne selbst Versuche anzustellen, das Äquivalent zwischen Wärme und Arbeit aus den vorhandenen Daten zu berechnen vermochte. Aus der Wärmemenge, die verbraucht wird, wenn ein Gas mit Überwindung eines darauf lastenden Druckes, also unter Leistung von Arbeit, sich ausdehnt, ergab sich, daß diejenige Arbeit, welche zum Emporheben eines Gewichtes auf die Höhe von 365 Metern erforderlich ist, einer Wärmemenge entspricht, welche die Temperatur des gleichen Gewichtes Wasser von 0° auf 1° erhöhen würde258. Spätere Versuche haben für dieses mechanische Wärmeäquivalent den Wert von 423 Kilogrammetern ergeben.
Mayers Berechnung und die ihn leitenden Überlegungen seien in folgendem kurz wiedergegeben. Mayer knüpft an den früher geschilderten Überströmungsversuch Gay-Lussacs259 an. Gay-Lussac hatte gezeigt, daß ein Gas unter Umständen sein Volumen vergrößern kann, ohne dabei im ganzen eine Temperaturveränderung zu erfahren. Mayer hat diesen Versuch richtig gedeutet und zur Grundlage für seine Ableitungen gewählt. Gay-Lussacs Versuch bewies ihm, daß mit der Ausdehnung eines Gases an sich kein Wärmeverbrauch verknüpft ist, wie man anfänglich im Banne der älteren Stofftheorie geglaubt hatte, sondern daß ein Gas nur dann eine Temperaturverminderung erfährt, wenn es bei seiner Ausdehnung einen Druck überwindet, mit anderen Worten, Arbeit leistet. Mit dieser Erkenntnis setzte Mayer die vor ihm bekannt gewordene und quantitativ untersuchte Erscheinung in Beziehung, daß ein Gas, wenn es sich unter konstantem Drucke ausdehnt, mehr Wärme gebraucht, um von 0° auf 1° erwärmt zu[Pg 181] werden, als wenn es bei der gleichen Temperaturerhöhung sein Volumen nicht verändert. Mayer erkannte, daß eben diese Wärmemenge, die im ersteren Falle verschwindet oder »latent« wird, die in der Überwindung des Druckes bestehende Arbeit leistet. Und da, schloß Mayer weiter, zwischen den Wärmemengen, welche z. B. die Luft in dem einen und in dem anderen Falle gebraucht, ein ganz bestimmtes Verhältnis (1,421) besteht, so wird auch zwischen dem Mehr an Wärme, das erforderlich ist, wenn das Gas Arbeit leistet, und dieser Arbeit selbst eine ebenso bestimmte, ziffernmäßig faßbare Beziehung walten.
Der mathematische Ausdruck für das Problem gestaltet sich sehr einfach. Ist die Wärmemenge, die das Gas aufnimmt, wenn es bei konstantem Volumen erwärmt wird, a, so braucht es für die gleiche Temperaturerhöhung bei konstantem Druck, also bei Ausdehnung und Arbeitsleistung, mehr Wärme a + b. Dieses Mehr (b) ist nun äquivalent der geleisteten Arbeit, d. h. dem Produkte aus dem Druck P und dem Weg h, auf welchem dieser Druck überwunden oder ein Gewicht gehoben wird:
b = P . h
Bei der Wichtigkeit des Gegenstandes wollen wir die Berechnung dieses Wertes P . h, des »mechanischen Wärmeäquivalentes« nach Mayers Verfahren vornehmen, uns dabei aber der heute gültigen Zahlen bedienen. Ein Kubikmeter Luft, dessen Gewicht bei 0° und 760 mm Druck 1,293 kg beträgt, befinde sich in einem Würfel von einem Kubikmeter Rauminhalt, dessen Wände zunächst nicht verschiebbar sind. Um diese Luftmasse von 0° auf 1° zu erwärmen, sind 0,2172 Wärmeeinheiten erforderlich. Denkt man sich jetzt die vier Seitenwände des Würfels etwas erhöht und seine obere Wand nach oben verschiebbar, so wird in diesem Falle bei einer Erwärmung der Luft von 0° auf 1° die verschiebbare Wand um 1/273 Meter gehoben und der auf ihr lastende Luftdruck von 10334 kg für diese Strecke überwunden. Der Wärmeverbrauch ist dann aber 0,3064 Wärmeeinheiten. Dem Mehr von 0,0893 Wärmeeinheiten entspricht eine mechanische Arbeit (P . h) von 10334 kg . 1/273 Metern = 37,85 Kilogrammetern. Für eine Wärmeeinheit berechnet sich nach der Proportion
0,0893 : 1 = 37,85 : x
das Wärmeäquivalent (x) = 423,8 kgm.
Die gleiche Beziehung wurde erhalten, wenn Mayer anstatt der Luft für diese Berechnung ein anderes Gas wählte. Das ge[Pg 182]fundene Gesetz, daß ein bestimmtes Verhältnis zwischen Wärmeverbrauch und Gewinn an »mechanischem Effekt« besteht, erwies sich somit als unabhängig von der Natur der elastischen Flüssigkeit, die nur als ein Werkzeug dient, um die Umwandlung der einen Kraft in die andere zu bewerkstelligen. Diese Erkenntnis Mayers deckt sich mit derjenigen, welcher Carnot260 mehrere Jahrzehnte vorher durch die Worte Ausdruck verlieh, die bewegende Kraft der Wärme sei »unabhängig von dem Agens, das man zu ihrer Gewinnung benutzt«. Ein wichtiger Unterschied zwischen Carnot und Mayer besteht allerdings darin, daß Carnot die Ursache dieser bewegenden Kraft lediglich in einer »Überführung des Wärmestoffes« von einem Körper höherer (z. B. dem Dampfkessel) zu einem Körper niedrigerer Temperatur (dem Kondensator oder der den Dampf kondensierenden Atmosphäre) erblickte, während Mayer klar erkannte, daß jeder Arbeitsleistung ein äquivalenter »Verbrauch« von Wärme entspricht. Noch großartiger wird die Konzeption Mayers dadurch, daß er nicht nur auf den Verbrauch von Wärme hinwies, sondern gleich die Worte »oder eine andere Kraft« hinzufügte und damit die Lehre von der Äquivalenz von Wärme und Arbeit zur Lehre von der Äquivalenz der Naturkräfte überhaupt, zur Lehre von der Erhaltung der Kraft, erweiterte.
Die Abhandlung, in welcher Mayer seine Anschauungen entwickelte, hatte das aus den näheren Umständen begreifliche Mißgeschick, daß ihr die Spalten der Annalen der Physik verschlossen blieben. Sie wurde in wesentlich verbesserter Fassung, sowie unter einem neuen Titel im Jahre 1842 in Liebigs Annalen der Chemie abgedruckt, von den Fachgelehrten zunächst aber nicht weiter beachtet. Einige Jahre später erschien eine größere Arbeit Mayers, in der er das Prinzip von der Äquivalenz auf die Gesamtheit der Naturerscheinungen ausdehnte261 und der Wärme, der Elektrizität und den übrigen »Imponderabilien« die Materialität unbedingt absprach. »Es gibt« sagt, Mayer, »in der Natur eine gewisse Größe von immaterieller Beschaffenheit, die bei allen zwischen den beobachteten Objekten stattfindenden Veränderungen ihren Wert behält, während ihre Erscheinungsform auf das Vielseitigste wechselt.« Diese Größe wurde zuerst als »Kraft« und[Pg 183] das von Mayer in obigen Worten ausgesprochene Gesetz als das Prinzip von der Erhaltung der Kraft bezeichnet. In seiner heutigen Fassung lautet dieses Prinzip: Die Energie des Weltalls ist konstant.
Es gilt heute als erwiesen, daß Poggendorff, der Herausgeber der Annalen der Physik, Mayers Abhandlung vom Juni 1841 nicht veröffentlichen konnte. Diese Abhandlung, die lange verschollen war und die erst unter dem Nachlaß Poggendorffs wieder aufgefunden wurde, strotzte von groben Fehlern (siehe A. v. Oettingens Vortrag, der 1909 in den Abhandlungen der math.-phys. Klasse der Kgl. sächsischen Gesellschaft d. Wissenschaften in Leipzig erschien. Bd. 31. S. 165-176) und von sinnlosen Behauptungen. Mayer, der offenbar damals noch im Banne der Naturphilosophie stand, schrieb in jener Abhandlung: »Alle Erscheinungen können wir von einer Urkraft ableiten, welche dahin wirkt, die bestehenden Differenzen aufzuheben und alles Seiende zu einer homogenen Masse in einem mathematischen Punkte zu vereinigen.« Von dem mechanischen Wärmeäquivalent war in der ersten Niederschrift noch keine Rede, und die ersten kosmologischen Betrachtungen, die Mayer anstellte, waren ebenso schwülstig wie unverständlich. Innerhalb der kurzen Frist eines Jahres, die zwischen der ersten Niederschrift und der zweiten liegt, die Liebig 1842 in den Annalen der Chemie erscheinen ließ, hatten sich die physikalischen Ansichten Mayers wesentlich geklärt. Nicht minder war dies später bezüglich der kosmologischen Anschauungen der Fall, die er im Jahre 1848 unter dem Titel: »Beiträge zur Mechanik des Himmels« bekannt gab.
Mayer nennt seine Abhandlung vom Jahre 1842 einen Versuch, den Begriff Kraft, den man bisher als etwas Unerforschliches, Hypothetisches betrachtet habe, ebenso scharf wie den Begriff Materie zu fassen und mit dem Worte Kraft nur ein Objekt wirklicher Forschung zu bezeichnen. Kräfte sind ihm Ursachen. Da die Wirkung jeder Ursache in endloser Kette Ursache einer neuen, gleich großen Wirkung ist, so sind ihm Kräfte oder Ursachen quantitativ unzerstörbare und qualitativ wandelbare, imponderable Objekte.
Zunächst betrachtet Mayer unter diesem Gesichtspunkt die Massenbewegung: Eine Ursache, welche die Hebung einer Last bewirkt, ist eine Kraft. Ihre Wirkung, die veränderte Lage der Last, ist ebenfalls eine Kraft, die jederzeit wieder in Bewegung übergeführt werden kann (Energie der Lage oder potentielle[Pg 184] Energie nach heutiger Ausdrucksweise). Der allgemeinere, schon sehr zutreffende Ausdruck für diese Erkenntnis lautet bei Mayer: »Räumliche Differenz ponderabler Objekte ist eine Kraft.«
Nun sehen wir aber sehr oft Bewegung verschwinden, ohne daß sie eine sichtbare andere Bewegung oder eine Gewichtserhebung hervorgebracht hätte. Mayer knüpft daran die Frage, welche neue Form die Kraft in einem solchen Falle angenommen habe. Um diese Frage zu entscheiden, schüttelt er Wasser kräftig und längere Zeit und bemerkt, daß eine deutliche Temperaturerhöhung stattfindet. Dieser Versuch war für Mayer das Experimentum crucis262, d. h. er war für die weitere Entwicklung seiner Anschauungen entscheidend.
Dafür, daß Bewegung in Wärme und Wärme in Bewegung übergeht, fehlte es ja auch im übrigen nicht an Beispielen, zumal in einem Zeitalter, das sich schon der Dampfmaschinen bediente. Für Mayer handelte es sich aber um die Frage, ob sich eine bestimmte quantitative Beziehung zwischen Massenbewegung und Wärme nachweisen läßt. »Wir müssen ausfindig machen«, sagt er in der Abhandlung vom Jahre 1842, »wie hoch ein bestimmtes Gewicht gehoben werden muß, damit seine Fallkraft äquivalent sei der Erwärmung eines gleichen Gewichtes Wasser von 0° auf 1°«.
Es verdient hervorgehoben zu werden, daß Mayer keineswegs schon die Wärme im Sinne der mechanischen Wärmetheorie als eine Bewegung der kleinsten Teile auffaßte. Ihm kam es ja gerade darauf an, alles Dunkle, Hypothetische von seinem Kraftbegriff fernzuhalten. Daher erklärt sich Mayer schon in seiner Abhandlung vom Jahre 1842 und auch später263 gegen die Auffassung, daß die Körperwärme selbst wieder Bewegung sei. Er ist vielmehr geneigt, das Gegenteil anzunehmen, nämlich daß die Bewegung, um Wärme zu werden, aufhören müsse, Bewegung zu sein. Der Zusammenhang, in dem für ihn die Wärme mit der Bewegung steht, bezieht sich lediglich auf die Quantität nicht auf die Qualität. Andererseits steht Mayer der früheren Auffassung, daß die Wärme, die Elektrizität und der Magnetismus gewisse Fluida seien, durchaus fern. Daß z. B. die strahlende Wärme ein Bewegungsvorgang ist, war für ihn außer Zweifel.
Einige der bezeichnendsten Ausdrücke, die uns in Mayers Schrift vom Jahre 1845 begegnen, seien noch mitgeteilt, um den Kern seiner Lehre von der Erhaltung der Kraft aufzzweisen. Es gibt in Wahrheit nur eine einzige Kraft. In ewigem Wechsel kreist sie in der toten wie in der lebenden Natur. Die Bewegung ist eine Kraft. Eine ruhende Masse, in irgend einer Entfernung von dem Erdboden sich selbst überlassen, setzt sich sofort in Bewegung und langt mit einer berechenbaren Endgeschwindigkeit auf dem Boden an. Auch die Gewichtserhebung ist, weil sie zur Ursache einer Bewegung werden kann, als eine Kraft zu betrachten. Die Wärme ist eine Kraft; sie läßt sich in mechanische Leistung verwandeln. Ein Kilogrammgewicht in unendlicher Entfernung – in mechanischer Trennung – von der Erde stellt eine Kraft dar. Durch den Aufwand dieser Kraft, d. h. durch die mechanische Verbindung beider Massen, wird eine andere Kraft erzeugt, nämlich die Bewegung eines Kilogramms mit der Geschwindigkeit von 10000 Metern. Durch den Aufwand dieser Bewegung läßt sich eine bestimmte Menge Wasser um einen Grad erwärmen. Die Erfahrung lehrt, daß dieselbe Wirkung, eine Wärmeentwicklung nämlich, durch die chemische Verbindung gewisser Stoffe erzielt wird. Das Chemisch-getrennt-sein oder kürzer, die Affinität der Stoffe, ist eine Kraft.
Die Sonne ist eine nach menschlichen Begriffen unerschöpfliche Quelle an Kraft. Der Strom dieser Kraft, der sich auch über unsere Erde ergießt, ist die beständig sich spannende Feder, die das Getriebe irdischer Tätigkeiten im Gange hält. Die Natur hat sich zur Aufgabe gestellt, das der Erde zuströmende Licht im Fluge zu erhaschen. Zur Erreichung dieses Zweckes hat sie die Erde mit Organismen bedeckt, die das Sonnenlicht in sich aufnehmen und unter Verwendung dieser Kraft eine fortlaufende Summe chemischer Spannkraft erzeugen. Diese Organismen sind die Pflanzen.
Das Tier nimmt aus dem Pflanzenreiche brennbare Stoffe in sich auf, um sie mit dem Sauerstoff der Atmosphäre wieder zu verbinden. Parallel diesem Aufwande läuft die das Tierreich kennzeichnende Leistung, die Hervorbringung mechanischer Effekte, die Erzeugung von Bewegungen, das Heben von Lasten usw. Zwar bringen auch die Pflanzen mechanische Leistungen hervor. Doch spielt in der Pflanze die Erzeugung mechanischer Effekte eine quantitativ und qualitativ sehr untergeordnete Rolle, während[Pg 186] die Verwandlung chemischer Spannkraft in nutzbaren mechanischen Effekt das kennzeichnende Merkmal des Tierlebens ist.
Von einem anderen Gebiete aus und seine Folgerungen auf eine große Zahl sinnreicher Versuche stützend, gelangt der Engländer Joule fast zur selben Zeit wie Robert Mayer zur Erkenntnis der Äquivalenz zwischen Wärme und Arbeit.
Joule weist darauf hin, daß schon Rumford und Davy auf Grund ihrer Versuche264 zu der Auffassung gekommen seien, die Wärme bestehe in einer Bewegung der kleinsten Teilchen der Körper. Die gleiche Auffassung findet sich schon bei dem Philosophen John Locke. Seine Worte lauten: »Die Wärme ist eine sehr rasche Bewegung der unsichtbaren Teilchen der Körper. Diese Bewegung erzeugt in uns eine Empfindung, die uns veranlaßt, den Körper heiß zu nennen. Was in unserer Empfindung Wärme ist, ist also in der Körperwelt nichts als Bewegung.« Klarer ist das Prinzip der mechanischen Wärmetheorie, das Joule im Gegensatz zu Mayer als erwiesen annimmt und an das er anknüpft, auch später nicht ausgesprochen worden. Zunächst befaßte sich Joule265 (seit 1840) mit der Wärmewirkung des galvanischen Stromes266. Er fand diese dem Widerstande und dem Quadrat der Stromstärke proportional. Die Untersuchung wurde auch auf Induktionsströme ausgedehnt, indem Joule die Erwärmung maß, welche eine gewisse Menge Wasser durch solche Ströme erfuhr. Da die Ströme durch die Drehung einer magnet-elektrischen Maschine, also unter Aufwand von mechanischer Arbeit, erzeugt wurden, so kam Joule auf den Gedanken, die Kraft, welche seinen Apparat in Bewegung setzte, zu bestimmen und sie mit der erzeugten Wärmemenge zu vergleichen. Die Versuche ergaben, daß diejenige Wärme, welche die Temperatur von einem Pfund Wasser um 1° Fahrenheit erhöht, einer mechanischen Kraft entspricht, die ein Gewicht von 838 Pfund einen Fuß hoch zu heben vermag267.
Joule hatte mittlerweile durch die in Liebigs Annalen vom Jahre 1842 erschienene Abhandlung Mayers davon Kenntnis erhalten, daß auch dieser die Äquivalenz zwischen Wärme und mechanischer Kraft nachzuweisen und durch Versuche zu stützen suche. Zu Mayers Versuchen, Wärme durch Schütteln von Wasser zu erzeugen, konnte Joule mit Recht bemerken, daß diese Versuche weder erkennen ließen, welche Vorkehrungen getroffen waren, um die Ergebnisse sicher zu stellen, noch daß ihnen Angaben über das Maß der aufgewendeten Arbeit beigegeben seien.
An diesem Punkte setzt Joule ein. Er betrachtet es als seine Aufgabe, »Wärme mit mechanischer Kraft in absolute numerische Verbindung zu bringen.« Er beschränkt sich nicht darauf, wie Mayer es getan, zu zeigen, daß Flüssigkeiten im allgemeinen beim Schütteln wärmer werden, sondern er bestimmt mit möglichster Genauigkeit die Wärmemenge, die beim Schütteln und Reiben von Flüssigkeiten unter Aufwand einer ganz bestimmten Arbeitsgröße erzeugt wird. Schon im Jahre 1843 konnte Joule die Tatsache ankündigen, daß Wärme beim Durchgange von Wasser durch enge Röhren entsteht268, und daß, um 1 Pfund Wasser auf diese Weise um 1° zu erwärmen, eine mechanische Kraft von 770 Fußpfund erforderlich sei.
Später (1845 und 1847) wandte Joule ein Schaufelrad an, um die Reibung der Flüssigkeiten hervorzubringen. Er erhielt dabei die Äquivalente
781,5
782,1
787,6
bei der Reibung von Wasser, Öl und Quecksilber. Diese Resultate stimmten so genau miteinander und mit den bei der Kompression von Gasen und den magnetelektrischen Versuchen gewonnenen Zahlen überein, daß man nicht länger an dem Vorhandensein einer Äquivalenzbeziehung zwischen mechanischer Kraft und Wärme zweifeln konnte. Es kam nur noch darauf an, die Größe des mechanischen Äquivalents der Wärme so genau wie möglich zu ermitteln269. Dazu diente Joule der in Abbildung 29 dargestellte Apparat.
In einem kupfernen Kessel befanden sich auf einer leicht rotierenden Achse (c, c) eine Anzahl Arme (a, a), die sich zwischen[Pg 188] den feststehenden Flügeln (b, b) bewegten. Der Deckel des Kessels, in den die Flüssigkeit gebracht wurde, besaß eine Öffnung für die Achse und eine zweite für ein Thermometer, an dem noch eine Temperaturdifferenz von 1/200 Grad abgelesen werden konnte. Da[Pg 189]mit keine Kraft verloren ging, war der Apparat so gebaut, daß er ohne Erschütterung arbeitete. Die beschriebene, gegen Wärmeverluste möglichst geschützte Vorrichtung wurde mit einem zweiten Apparat in Verbindung gesetzt. Er bestand aus zwei Teilen und hatte die Aufgabe, eine genau zu ermittelnde Arbeit zu leisten, die durch Rollen und Schnüre den Reibungsapparat in Bewegung setzte. Abb. 29 zeigt in ihrem oberen Teile die gesamte Versuchsanordnung. Die Bleigewichte ee hingen an Schnüren unter den Rollen bb, die ihrerseits in Friktionsrädern liefen. Die Höhe der Gewichte wurde an den graduierten Stäben genau ermittelt. Dann ließ Joule die Gewichte abwärts gehen (um etwa 50 Zoll). Während ihres Falles setzten sie die Achse des Reibungsapparates in Bewegung.
Unter Beobachtung einiger Kautelen und Korrekturen erhielt Joule durch den Aufwand der mechanischen Kraft, die durch den Fall von 772 Pfund um einen Fuß repräsentiert wird, eine Wärmemenge, die imstande war, ein Pfund Wasser um 1° Fahrenheit zu erwärmen.
»Ich werde keine Zeit verlieren«, sagt Joule am Schlusse seiner Abhandlung vom Jahre 1843, »diese Versuche zu wiederholen, da ich überzeugt bin, daß die gewaltigen Naturkräfte durch des Schöpfers Werde! unzerstörbar sind und daß man immer, wo man eine mechanische Kraft aufwendet, ein genaues Äquivalent an Wärme erhält.« Joule hat Wort gehalten und seine Experimente über diesen Gegenstand bis zum Jahre 1878 fortgesetzt. Seine letzten Bestimmungen ergaben für jenes Äquivalent einen Wert von 772,33 Fußpfund271.
Zu dem gleichen Ergebnisse wie Mayer und Joule gelangte zur selben Zeit der Däne Colding272. Er legte 1843 der Königlichen Gesellschaft in Kopenhagen eine Abhandlung vor, die er »Sätze über die Kräfte« betitelte. Colding bemühte sich wie Joule, durch eine größere Anzahl von Versuchen nachzuweisen, daß die durch Reibung gewonnene Wärme stets in einem bestimmten Verhältnis zur aufgewandten mechanischen Arbeit steht. Seine Versuche waren indessen bei weitem nicht so exakt wie diejenigen Joules und das Ergebnis daher ungenau. Da Colding ferner seine Gedanken in eine dunkle Sprache kleidete, hat er[Pg 190] kaum einen Einfluß auf die weitere Ausbildung der mechanischen Wärmetheorie gehabt. Die Kräfte sind nach Colding unzerstörbar. Wenn sie bei einem Vorgange zu verschwinden scheinen, finde nur eine Umwandlung statt. Wenn dem nicht so wäre, bemerkt er ganz zutreffend, so müßte ein Perpetuum mobile möglich sein.
Von demselben Gedanken, dem Satz vom ausgeschlossenen Perpetuum mobile nämlich, wurde auch Helmholtz geleitet: Er gelangte 1847 gleichfalls zu der großen Verallgemeinerung, die Robert Mayer zuerst ausgesprochen und Joule für einige Gebiete der Physik durch seine Versuche als gültig dargetan hatte.
Obgleich sich die Arbeit von Helmholtz273 durch die mathematische Behandlung des Gegenstandes und ihre streng wissenschaftliche Sprache von den Werken Mayers abhob, fand sie gleichfalls in den Annalen der Physik keinen Platz, sondern gelangte als selbständige Schrift zur Veröffentlichung274.
Helmholtz ging von der Annahme aus, daß es unmöglich sei, durch irgend eine Kombination von Körpern bewegende Kraft fortdauernd aus nichts zu erschaffen. Er stellte sich die Aufgabe, dieses in die Mechanik schon durch Huygens eingeführte Prinzip, das Carnot275 auf die Wärmelehre ausgedehnt hatte, für das gesamte Gebiet der Naturlehre durchzuführen.
Genauer läßt sich das Prinzip vom ausgeschlossenen Perpetuum mobile wie folgt darstellen. Gerät ein System von Körpern, die sich in gewissen Abständen voneinander befinden, unter dem Einfluß der Kräfte, welche die Körper aufeinander ausüben, in Bewegung, bis sie in bestimmte andere Lagen gekommen sind, so wird dadurch eine bestimmte Arbeit geleistet. Will man dieselben Kräfte zum zweiten Male wirken lassen, um dieselbe Arbeit noch einmal zu gewinnen, so müssen wir die Körper in die ursprüngliche gegenseitige Lage zurückversetzen. Die Arbeit nun, die aufgewendet werden muß, um die Körper in die Anfangslage zurückzuversetzen, ist ebenso groß wie die Arbeit, die gewonnen wird, wenn die Körper aus der Anfangslage in die zweite Lage übergehen. Dabei ist es gleichgültig, auf welchem Wege oder mit welcher Geschwindigkeit sich dieser Übergang von der einen in die andere Lage vollzieht. Wäre nämlich die erzeugte Arbeit auf irgend einem Wege größer als auf einem anderen, so würden wir einen Überschuß an Arbeit bekommen und durch häufige Wiederholung jenes Lagenwechsels eine unerschöpfliche Quelle mechanischer Kraft erhalten.
Das einfachste Beispiel für ein solches System ist die Erde und ein sich auf der Erde befindliches Gewicht m. Wird dieses auf die Höhe h emporgehoben, so erfordert dies die Arbeit mgh, wenn wir die Intensität der Schwerkraft mit g bezeichnen. Dieselbe Arbeitsgröße leistet das Gewicht, wenn es aus der Höhe h auf die Erde herabfällt. Das Produkt g . h bedingt die Geschwindigkeit des fallenden Körpers. Es ist nämlich276 g . h = v2/2. Folglich ist mgh = m v2/2. Nun ist mgh die zum Emporheben erforderliche Arbeit und m v2/2 die beim Herabfallen erzeugte lebendige Kraft. Beide sind gleich groß.
Die Arbeit, die der ruhende Körper vermöge seiner Lage in der Entfernung h leisten kann, nennt Helmholtz die Spannkraft. Bewegt sich der Körper auf die anziehende Masse (in unserem Beispiel die Erde) zu, so verliert er an Spannkraft, gewinnt aber ebensoviel an lebendiger Kraft. Für ein System, in dem infolge der Lagebeziehungen Spannkräfte vorhanden sind und infolge der[Pg 192] Bewegung lebendige Kräfte ausgelöst werden, ergibt sich also der Satz:
Die Summe der vorhandenen Spannkräfte und der lebendigen Kräfte ist konstant.
Das ist das Prinzip von der Erhaltung der Kraft in der Form, in der es Helmholtz aussprach. Statt Spannkraft hat man später auch Energie der Lage und statt lebendige Kraft Energie der Bewegung gesagt.
Für die Mechanik brauchte das Prinzip von der Erhaltung der Kraft nicht erst nachgewiesen zu werden. Seit Huygens bot die Pendelbewegung eins der trefflichsten Beispiele für seine Gültigkeit. Daß es die Bewegungen der Himmelskörper regelt, hatte man gleichfalls längst erkannt. Bemerkte man doch, daß die Geschwindigkeit eines Planeten und damit seine lebendige Kraft zunimmt, je mehr er bei seinem Umlauf aus der Sonnenferne in die Sonnennähe gelangt, während umgekehrt die gewonnene Energie der Bewegung wieder verbraucht wird, wenn der Planet in seine alte Lage zurückkehrt. Trotzdem erblickte man in dieser Bewegung kein Perpetuum mobile, denn ein Gewinn an Arbeit ist ja mit der Planetenbewegung nicht verbunden.
Auch für die Fortpflanzung der Bewegung durch unelastische und elastische Körper, insbesondere für die Wellenbewegung galt schon das Prinzip von der Erhaltung der Kraft. Scheinbar vernichtet wird die lebendige Kraft der elastischen Wellen allerdings bei den Vorgängen, die man als Absorption bezeichnet. Doch suchte Helmholtz darzutun, daß die Absorption der Schallwellen in einem Übergang der Bewegung an die von den Wellen getroffenen Körper (z. B. Vorhänge oder Decken) besteht. Die Absorption der Licht- und der Wärmestrahlen wird nach Helmholtz von einer proportionalen Wärmeentwicklung begleitet.
Für den Stoß unelastischer Körper und für die Reibung hatte man jedoch bis dahin einen Kraftverlust angenommen. Helmholtz wies demgegenüber darauf hin, daß beim Stoß unelastischer Körper oft durch Formveränderungen eine Vermehrung der Spannkräfte stattfinde, daß vor allem aber mit heftigen oder oft wiederholten Stößen eine lebhafte Wärmeentwicklung verbunden sei. Beides werde auch bei der Reibung bewirkt. Es erhob sich also die Frage, ob die Summe der mit dem Stoß und mit der Reibung verbundenen Wirkungen der bei diesen Vorgängen verlorenen mechanischen Kraft genau entspricht. Aus seinem Prinzip heraus bejahte[Pg 193] Helmholtz diese Frage, wenn exaktere Nachweise als die bis dahin beigebrachten auch noch zu fordern waren. Auch die Wärmeentwicklung durch chemische Vorgänge ist nach der Vorstellung von Helmholtz diejenige Quantität lebendiger Kraft, welche durch eine bestimmte Quantität der chemischen Anziehungskräfte hervorgebracht wird.
Schwieriger war der Nachweis eines Kraftäquivalentes für die verschiedenen Arten der elektrischen und magnetischen Vorgänge. Jedenfalls vermochte Helmholtz schon 1847 sicher zu stellen, daß die auf diesen Gebieten zu beobachtenden Erscheinungen, soweit bis dahin messende Versuche vorlagen, dem Prinzip von der Erhaltung der Kraft nicht widersprechen. Vor allem war es das große Verdienst seiner Schrift »Über die Erhaltung der Kraft«, die völlige Bestätigung dieses Prinzips als eine der Hauptaufgaben für die weitere Entwicklung der Naturwissenschaften hingestellt zu haben.
Die Zurückhaltung der Fachkreise, die Helmholtz wie auch Joule und Mayer anfangs erfuhren, darf man nicht ohne weiteres für unberechtigt halten. Zweifel und Bedenken sind in unserem Zeitalter nicht mehr imstande, das Licht einer neuen Wahrheit zu ersticken, sondern sie haben oft genug dazu beigetragen, daß es bald darauf in hellerem Glanze erstrahlen konnte. Auch der Umstand mußte für die neue Lehre sprechen, daß mehrere Forscher, die nicht miteinander in Verbindung standen und von den verschiedensten Gesichtspunkten ausgingen, schließlich zu ihr durchgedrungen waren. In den vorhergehenden Abschnitten wurde ferner gezeigt, daß der Fortschritt der gesamten Naturwissenschaften auf eine Verknüpfung, wie sie in dem Prinzip von der Erhaltung der Energie zum Ausdruck kam, hindrängte. Infolgedessen erscheint das Verdienst des einzelnen nicht in solchem Maße in den Vordergrund gerückt, wie es bei manchen anderen, großen Entdeckungen und Verallgemeinerungen der Fall ist.
Das Gesetz von der Erhaltung der Energie hatte man zuerst aus irdischen Erscheinungen abgeleitet. Helmholtz stellte sich die Aufgabe, auf grund dieses Gesetzes den »Haushalt des Weltalls« zu überschauen277. Er ging dabei mit Kant von der Annahme aus, daß die Masse der Sonne und unseres Planetensystems im Uranfang einen Nebel von verschwindender Dichtigkeit bildete, der[Pg 194] über die Grenzen der Neptunbahn hinausreichte. Daran knüpfte Helmholtz folgende Betrachtungen unter dem neuen, von ihm und Mayer gewonnenen Gesichtspunkte.
Als sich der Urnebel gebildet hatte, mußte er nicht nur den genannten Stoff enthalten, aus dem die Sonne und das Planetensystem hervorgingen, sondern auch den ganzen Vorrat an Arbeitskraft, der einst in diesem System seinen Reichtum an Wirkungen entfalten sollte. Eine ungeheuer große Mitgift war dem Planetensystem in dieser Beziehung allein in Form der allgemeinen Anziehungskraft aller seiner Teile zu einander mitgegeben. Auch die chemischen Kräfte mußten schon vorhanden sein. Da aber diese Kräfte erst bei der innigsten Berührung der Massen in Wirksamkeit treten können, so mußte erst Verdichtung eintreten, bevor ihr Spiel beginnen konnte. Helmholtz berechnete, wieviel Arbeit bei der bisherigen Verdichtung geleistet ist und wieviel Energie noch jetzt in Form mechanischer Kraft besteht, und zwar als Anziehung der Planeten zur Sonne und als lebendige Kraft ihrer Bewegung. Daraus ergab sich, wieviel von der bei der Verdichtung geleisteten Arbeit schon in Wärme verwandelt wurde. Die Berechnung zeigte, daß nur noch etwa der 454. Teil der ursprünglichen mechanischen Kraft vorhanden ist. Die übrigen 453/454 sind danach in Wärme verwandelt und als solche größtenteils in den Weltraum ausgestrahlt worden. Wenn die Masse unseres ganzen Sonnensystems aus Kohle bestände und verbrannt würde, so würde nach Helmholtz dadurch erst der 3500. Teil jener Wärmemenge erzeugt werden.
Daß auch der noch gegenwärtig in unserem Planetensystem vorhandene Vorrat an mechanischer Kraft ungeheuren Wärmemengen entspricht, zeigt Helmholtz durch folgende Berechnung: Könnte unsere Erde plötzlich in ihrer Bewegung um die Sonne zum Stillstand gebracht werden, so würde durch diesen Stoß soviel Wärme erzeugt, wie die Verbrennung von 14 Erden aus reiner Kohle liefern würde. Fiele die Erde dann aber, wie es der Fall sein müßte, in die Sonne, so würde die durch einen solchen Stoß entwickelte Wärme noch 400mal so groß sein.
Helmholtz berechnet auch den Kraftvorrat der Sonne, der den Reichtum der klimatischen, geologischen und organischen Vorgänge auf unserer Erde fast allein im Gang erhält, da die innere Wärme des Erdballs wenig Einfluß auf die Temperatur der Oberfläche[Pg 195] ausübt. Pouillet278 hatte gemessen, wieviel Sonnenwärme in einer gegebenen Zeit ein gegebener Teil der Erde empfängt. Nach dem erhaltenen Wert zu schließen, gibt die Sonne soviel Wärme ab, daß an ihrer Oberfläche stündlich eine zehn Fuß dicke Schicht Kohlenstoff verbrennen müßte, um diese Wärmemenge durch Verbrennung zu erzeugen.
Auch die Frage, ob die Sonne nur diejenige Wärme ausstrahlt, die seit ihrer Entstehung in ihr angehäuft ist, oder ob fortdauernd neue Wärme an ihrer Oberfläche infolge chemischer Vorgänge erzeugt wird, erörterte Helmholtz. Er schloß aus dem Gesetz von Erhaltung der Kraft, daß kein Vorgang in der Sonne die Ausstrahlung von Licht und Wärme für ewige Zeiten unterhalten könne. Als Quelle der Sonnenkraft nahm Helmholtz die fortschreitende Verdichtung dieses Gestirns, das augenblicklich nur 1/4 der Dichtigkeit der Erde besitzt, in Anspruch. Unter dieser Voraussetzung berechnete er, daß durch eine Verringerung des Sonnendurchmessers um nur den zehntausendsten Teil seiner jetzigen Größe hinreichend viel Wärme erzeugt wird, um die ganze Wärmeausgabe für 2000 Jahre zu decken.
An dem weiteren Ausbau der von Mayer, Joule und Helmholtz geschaffenen Theorie war besonders Clausius279 beteiligt. Er und andere Männer griffen den schon oft geäußerten Gedanken wieder auf, daß die Energie beim Stoße unelastischer Körper und bei der Reibung sich in eine unsichtbare Bewegung der kleinsten Teilchen, der Moleküle, umsetze. Indem sie diesen Gedanken auf alle Teilgebiete der Physik ausdehnten und ihn in die Sprache der analytischen Mechanik übertrugen, begründeten sie die mechanische Wärme- und die kinetische Gastheorie.
Clausius knüpfte an Carnots im Jahre 1824 veröffentlichte Untersuchung280 über die bewegende Kraft der Wärme an. Er erweiterte den von Carnot geäußerten Gedanken dadurch, daß er ihn mit dem von Joule und Mayer aufgestellten Prinzip[Pg 196] der Äquivalenz von Wärme und Arbeit in Verbindung brachte. Carnot hatte nachgewiesen, daß wenn Arbeit durch Wärme geleistet wird, eine gewisse Wärmemenge von einem warmen auf einen Körper von geringerer Temperatur übergeht, z. B. bei der Dampfmaschine von der Feuerung auf den Kondensator. Dabei hatte Carnot, ohne sich über die eigentliche Natur der Wärme zu entscheiden, angenommen, daß die Quantität der Wärme dieselbe bleibe. Clausius berichtigte dieses Prinzip auf Grund der neuen, von Joule und Mayer gewonnenen Erkenntnis dahin, daß zur Erzeugung von Arbeit nicht nur eine Veränderung in der Verteilung der Wärme, sondern auch der Verbrauch einer der erzeugten Arbeit proportionalen Wärmemenge nötig sei, sowie daß umgekehrt durch Verbrauch einer ebenso großen Arbeit dieselbe Wärmemenge wieder erzeugt werden könne. Er nannte diesen Satz den ersten Hauptsatz der mechanischen Wärmetheorie281.
Diesen ersten Hauptsatz der mechanischen Wärmetheorie, den Helmholtz als den Satz von der Erhaltung der Kraft bezeichnet hatte, nannte Clausius zutreffender den Satz von der Erhaltung der Energie. In aller Kürze sprach er ihn so aus:
»Wärme und Werk sind äquivalent«.
Clausius wie auch Helmholtz zeigten, daß sich dieser Satz auf die Gesamtheit der Naturerscheinungen ausdehnen läßt, indem man die Begriffe Wärme und Werk erweitert und beispielsweise auch die Wirkungen elektrischer und magnetischer Kräfte als Werk bezeichnet. Der Satz von der Äquivalenz besagt somit, daß sich eine Form der Energie in eine andere verwandelt, ohne daß etwas an Energie verloren geht. Nach dem umfassendsten Ausdruck den man diesem Satz gegeben hat, ist die Energie des Weltalls ebenso konstant wie die Menge des in der Welt vorhandenen Stoffes.
Clausius hat später darauf hingewiesen, daß man aus dem ersten Hauptsatz nicht folgern dürfe, die Welt sei unveränderlich, d. h. in einem ewigen Kreislauf begriffen. Nach dem von Clausius als zweiten Hauptsatz der mechanischen Wärmetheorie bezeichneten Satze wird sich die gesamte Arbeit, welche die Naturkräfte noch verrichten können, sowie diejenige, die in den vorhandenen Be[Pg 197]wegungen steckt, kurz alle potentielle und aktuelle Energie, immer mehr in Wärme verwandeln. Letztere Energieform wird eine immer gleichmäßigere Verteilung annehmen, indem die augenblicklich noch vorhandenen Temperaturunterschiede sich ausgleichen. Für diesen Ausgleich aller vorhandenen Temperaturunterschiede braucht Clausius das Wort »Entropie«. Er gibt seinem zweiten Hauptsatz daher auch wohl den Ausdruck:
»Die Entropie der Welt strebt einem Maximum zu«.
Ist dieses Maximum erreicht, so können keine Energieumwandlungen mehr stattfinden. Der Vorrat an Energie ist zwar dem ersten Satz entsprechend derselbe geblieben. Trotzdem ist infolge der gleichmäßigen Verteilung ein ewiger Beharrungszustand eingetreten.
Streng genommen, gelten die beiden Sätze nur für ein begrenztes System, d. h. unter der Annahme, daß der Kraft- und Stoffvorrat der Welt endlich ist. Da die Forschung es aber nur mit einem solchen begrenzten System, und zwar zunächst nur mit dem Energievorrat des Sonnensystems zu tun hat, so sind der Satz von der Erhaltung der Kraft und der Entropiesatz zu den wichtigsten Prinzipien geworden, auf denen unsere heutige Naturauffassung beruht. Wie sich die Erhaltung und die Wandlungen der Energie für die Welt als Ganzes gestalten, ist, zumal wenn wir die Welt als unbegrenzt betrachten, eine Frage von metaphysischer Bedeutung.
Den beiden von Mayer und Clausius formulierten Hauptsätzen der mechanischen Wärmetheorie hat Nernst vor kurzem noch einen dritten Satz hinzugefügt. Er lautet in der von Nernst herrührenden Fassung: »Es ist unmöglich, eine Vorrichtung zu ersinnen, durch die ein Körper völlig der Wärme beraubt, d. h. bis zum absoluten Nullpunkt abgekühlt werden kann«. Nernst schloß dies aus den Änderungen, welche die spezifische Wärme mit der Abnahme der Temperatur erfährt282.
Geradezu umgestaltend hat die mechanische Wärmetheorie auf die Theorie der Gase gewirkt. Um den Druck zu erklären, den ein Gas auf die Wände des Gefäßes ausübt, in dem es eingeschlossen ist, hatte man bis um die Mitte des 19. Jahrhunderts angenommen,[Pg 198] daß die Moleküle der Gase sich gegenseitig mit einer Kraft abstoßen, die in dem Maße abnimmt, in dem sich die Moleküle voneinander entfernen.
Eine andere Vorstellung von der Natur der Gase hatte schon Bernoulli um die Mitte des 18. Jahrhunderts entwickelt283. Er hatte angenommen, daß sich die Gasmoleküle unabhängig voneinander bewegen, bis sie auf ein anderes Molekül oder auf eine Wand treffen. In diesem Falle werde das Molekül wie ein vollkommen elastischer Körper zurückgeworfen, um seine geradlinige Bewegung mit unveränderter Geschwindigkeit fortzusetzen. Bernoullis Theorie von der Natur des gasförmigen Zustandes blieb unbeachtet, bis die neuere Physik die Körperwärme als eine Bewegung der Moleküle auffassen lehrte. Vor allem waren es Clausius und Krönig284, welche die Vorstellung Bernoullis wieder belebten und die kinetische Gastheorie begründeten.
Nach dieser Theorie gibt es in den Gasen keinen Gleichgewichtszustand. Die Moleküle bewegen sich, ganz wie es schon Bernoulli beschrieben hatte, geradlinig und mit gewissen Geschwindigkeiten, bis sie auf ein benachbartes Molekül oder auf die das Gas einschließende Wand stoßen. Geschieht dies, so werden sie nach den Gesetzen, die für den Stoß vollkommen elastischer Kugeln gelten, zurückgestoßen. Man kann sich nach Krönig diese Hypothese folgendermaßen veranschaulichen. Man denke sich einen Kasten aus absolut elastischem Stoff und in dem Kasten eine Anzahl absolut elastischer Kugeln, die, wenn sie ruhen, nur einen kleinen Teil des Kastens einnehmen. Der Kasten werde heftig geschüttelt, so daß die Kugeln in Bewegung geraten. Kommt der Kasten wieder in Ruhe, so behalten die Kugeln, weil sie absolut elastisch sind, die ihnen mitgeteilte Bewegung unablässig bei, obgleich die Richtung jeder einzelnen Kugel bei jedem Stoß gegen eine andere Kugel oder gegen eine Wand sich ändert. Wie diese Kugeln verhalten sich die Gasmoleküle in einem abgeschlossenen Gefäß285.
Aus dieser Hypothese vermochte Krönig ohne weiteres das Boyle-Mariottesche und das Gay-Lussacsche Gesetz abzuleiten. Er setzte die Zahl der Moleküle gleich n, die Masse eines jeden gleich m, das Volumen des Gases gleich v und die Geschwindigkeit der Moleküle gleich c. Dann ergab sich der Druck
p = (nmc2)/v.
Der Druck p ist in Übereinstimmung mit dem Boyle-Mariotteschen Gesetz also umgekehrt proportional dem Volumen. Der Druck ist ferner direkt proportional der Anzahl n der stoßenden Moleküle. Ferner ist die lebendige Kraft der Moleküle nach Krönig nichts anderes als die vom absoluten Nullpunkt an gerechnete Temperatur. Die obige Formel nimmt also den Ausdruck
p = (nT)/v oder pv = nT
an. Das ist aber der mathematische Ausdruck für das Gay-Lussacsche und das Mariottesche Gesetz.
Ebenso ergibt sich ohne weiteres die Avogadrosche Regel. Wendet man nämlich die Formel auf zwei verschiedene Gase an:
p1v1 = n1T1
p2v2 = n2T2
und betrachtet man gleiche Volumina (v1 = v2) bei gleichem Druck (p1 = p2) und gleicher Temperatur (T1 = T2), so ergibt sich n1 =n2, d. h. unter diesen Verhältnissen ist die Zahl der Moleküle gleich groß.
Um der Annahme der steten Bewegung der Moleküle gasförmiger Körper das Befremdende zu nehmen, erinnert Krönig daran, in wie kurzer Zeit z. B. eine geringe Menge Schwefelwasserstoffgas sich durch ein ganzes Zimmer ausbreitet.
Ihre Fortbildung fand die Theorie Krönigs durch Clausius286. Nach ihm ist die geradlinig fortschreitende Bewegung der Gasmoleküle aber nicht die einzige, da bei jedem Stoße zweier Körper gegeneinander, wenn der Stoß nicht zufällig zentral oder gerade ist, außer der fortschreitenden auch eine rotierende Bewegung entsteht. Rotierende Bewegungen der Moleküle und oszillierende Bewegungen der Atome innerhalb des Moleküls nahm Clausius auch aus dem Grunde an, weil die lebendige Kraft der fortschreitenden Bewegung allein sich zu gering erwies, um die ganze in dem Gase[Pg 200] vorhandene Wärme zu erklären. Die rotierende und die oszillierende Bewegung nannte Clausius die Bewegungen der Bestandteile. Er wies nach, daß die lebendigen Kräfte der letzteren zur lebendigen Kraft der fortschreitenden Bewegung für ein bestimmtes Gas und eine gegebene Temperatur in einem konstanten Verhältnis stehen.
Aus der von ihm gefundenen Grundgleichung der kinetischen Gastheorie:
p = (nmc2)/(3v)
vermochte Clausius die Geschwindigkeit der Gasmoleküle zu berechnen. Da nm die Gesamtmasse des Gases (M) ist, so wird
c = √((3pv)/M)
Daraus ergaben sich folgende, für den Gefrierpunkt geltende Zahlen:
für | Sauerstoff | 461 m |
" | Stickstoff | 492 m |
" | Wasserstoff | 1844 m |
Während Krönig und Clausius die in vorstehendem dargestellten Grundzüge der thermodynamischen Gastheorie entwickelten, begründete G. Kirchhoff fast zur selben Zeit die Thermodynamik der Lösungen287. Wird bei einer Reaktion Wärme entwickelt, so nennt man sie exothermisch. Ist dagegen mit einer Reaktion ein Verbrauch von Wärme verbunden, so bezeichnet man sie als endothermisch. Vereinigen sich flüssige Stoffe mit Gasen oder Flüssigkeiten, so findet meist eine Entwicklung von Wärme (Lösungswärme) statt, auch wenn es sich dabei um keine chemische Verbindung, sondern um einen physikalischen Vorgang handelt. Die Auflösung von festen Körpern in Flüssigkeiten ist in den meisten Fällen, insbesondere wenn es sich um Salze handelt, ein endothermischer Vorgang.
Kirchhoff gelang es aus den Prinzipien der mechanischen Wärmetheorie die Wärmemenge zu berechnen, die beim Auflösen eines Gases oder eines Salzes in Wasser frei beziehungsweise absorbiert wird.
Im bisherigen Verfolg der geschichtlichen Entwicklung sind uns zwar manche Fälle begegnet, in denen hervorragende Forscher unter Anwendung von Hilfsmitteln der Physik und der Chemie einen tieferen Einblick in die Natur der Pflanzen und der Tiere zu gewinnen suchten. Es braucht hier nur an Hales und Borelli, sowie an Saussure und an Liebig erinnert zu werden. Dennoch galt bis in die vierziger Jahre des 19. Jahrhunderts das Beschreiben und das Klassifizieren als die Hauptaufgabe der Zoologie und der Botanik. Seitdem haben diese Zweige unter dem Aufschwung, den die chemisch-physikalische Forschung genommen, ihren Charakter wesentlich geändert. Sie sind zu induktiven Wissenschaften geworden, die ihre wichtigsten Ergebnisse nicht mehr der Sammeltätigkeit der Museen, sondern den Arbeiten mit allen Mitteln der exakten Forschung ausgestatteter Laboratorien verdanken.
Als ein Beispiel hierfür kann uns die schrittweise gewonnene Einsicht in das Wesen der Gärungs- und Fäulniserscheinungen dienen. Lavoisier und Gay-Lussac, ja selbst noch Liebig hatten in ihnen ein rein chemisches Problem erblickt. Nachdem durch Lavoisier der Vorgang der alkoholischen Gärung als ein Zerfall des Zuckers in Alkohol und Kohlendioxyd erkannt worden war, beantwortete Gay-Lussac die Frage nach der Ursächlichkeit dieser Erscheinung, sowie der analogen Fäulnis dahin, daß der Sauerstoff der Erreger dieser Prozesse sei. Gay-Lussac stützte sich hierbei auf die heute allgemein bekannte Tatsache, daß zum Sieden erhitzte und dann vollkommen abgeschlossene pflanzliche oder tierische Aufgüsse unverändert bleiben und erst nach wieder erfolgtem Zutritt der Luft in Zersetzung übergehen. Gay-Lussacs Ansicht wurde dadurch widerlegt, daß der Deutsche Schwann zu einem ausgekochten Aufguß Luft hinzutreten ließ, die er zuvor auf mehrere hundert Grad erhitzt hatte288. Obgleich bei diesem[Pg 202] Versuche Sauerstoff zu dem Aufguß gelangte, ging der letztere dennoch weder in Gärung, noch in Fäulnis über. Gleichzeitig lenkten Schwann und andere Forscher die Aufmerksamkeit auf die organisierte Natur der Hefe, die man fortan als eine in der Zuckerlösung vegetierende Pflanze ansah, durch deren Lebensprozeß der Zucker in Alkohol und Kohlendioxyd gespalten wird. Nach einem zweiten Verfahren wurde die Luft, bevor sie zu dem Aufguß trat, der Einwirkung von chemischen Agentien, wie Kalilauge oder Schwefelsäure, ausgesetzt. Auch in diesem Falle unterblieb die Gärung. Es wurde jedoch von gegnerischer Seite der Einwurf erhoben, daß die zugeführte Luft durch eine derartige Behandlung vielleicht eine tiefergreifende Änderung erfahren haben könnte. Dieser Einwand wurde durch eine Versuchsanordnung289 beseitigt, bei welcher die zum Aufguß gelangende Luft anstatt des erhitzten Rohrstücks oder der Chemikalien nur einen Baumwollpfropfen passierte. Auch in diesem Falle unterblieb die Gärung. Hierdurch gewann die schon von Schwann geäußerte Vermutung, daß es sich um organisierte, in der Luft schwebende Keime handeln könne, eine neue Stütze. Zur vollen Gewißheit wurde diese Ansicht erst durch Pasteurs Arbeiten erhoben290. Das Verfahren, das Pasteur einschlug, um den in der Luft schwebenden Staub zu sammeln und unter dem Mikroskop zu prüfen, bestand darin, daß er ein bestimmtes Luftvolumen durch Schießbaumwolle filtrierte. Die Einzelheiten des Pasteurschen Verfahrens sind aus nachstehender Abbildung ersichtlich.
In der Glasröhre T, die im Fensterrahmen angebracht war und ins Freie mündete, befand sich bei a der Pfropf aus Schießbaumwolle. Die Luft wurde durch den Wasserstrahlaspirator R[Pg 203] herbeigesogen. Wollte Pasteur das hindurchgesogene Luftvolumen messen, so brachte er das Ende l der Röhre kl in eine große, umgestürzte, mit Wasser gefüllte Maßflasche und bestimmte die Zeit, in der sich eine Flasche, z. B. von 10 Litern Inhalt, füllte.
War die Luft hinreichend lange hindurchgestrichen, so wurde der Baumwollpfropfen in einem Gemisch von Äther und Alkohol gelöst. Die in dem Pfropfen zurückgehaltenen, aus der Luft stammenden festen Bestandteile wurden durch Absitzenlassen gesammelt und wiederholt gewaschen. Dann brachte Pasteur den Rückstand auf ein Uhrglas, auf dem der Rest der ihn benetzenden Flüssigkeit schnell verdunstete und prüfte ihn unter dem Mikroskop. Auf diese Weise ließ sich erkennen, daß in der gewöhnlichen Luft beständig eine wechselnde Zahl von Körperchen vorhanden ist, deren Gestalt und Bau anzeigt, daß sie organisiert[Pg 204] sind. Ihre Größe belief sich von dem kleinsten Durchmesser an bis auf 1/100 oder mehr Millimeter. Die Körperchen waren teils vollkommen kugelrund, teils länglich. Ihre Umrisse traten mehr oder weniger deutlich hervor. Viele waren durchscheinend und glichen ganz den gemeinen Schimmelsporen oder auch den Keimen von Aufgußtierchen. Sie waren ferner so verschieden an Größe und Bau, daß sie unstreitig zu zahlreichen Arten gehörten. Auch ergab sich, daß die Zahl der organisierten Körper, die Pasteur nach dieser Methode auf den Baumwollfasern sammelte, sehr ansehnlich im Verhältnis zum Luftvolumen war.
In richtiger Vorahnung der Bedeutung dieses auf den ersten Blick unwichtig scheinenden Gegenstandes, sagte damals Pasteur: »Ich glaube, daß es von großem Interesse sein würde, die Studien über diesen Gegenstand auszudehnen und an ein und demselben Orte zu verschiedenen Jahreszeiten, sowie an verschiedenen Orten zu derselben Zeit die in der Luft zerstreuten, organisierten Körperchen zu vergleichen. Mir scheint, daß die Phänomene der ansteckenden Krankheiten, besonders der epidemischen, durch in dieser Richtung fortgesetzte Arbeiten sich unserer Erkenntnis erschließen würden«.
An den mikroskopischen Befund schloß Pasteur den experimentellen Nachweis an, daß poröse Substanzen tatsächlich die Gärung verhindern, indem sie die in der Luft schwebenden, organisierten Körper zurückhalten. Ferner gelang es Pasteur, durch die Aussaat dieser Keime diejenigen Erscheinungen hervorzurufen, die sonst durch die gewöhnliche Luft veranlaßt werden. Daß die letztere um so weniger Keime enthält, je weiter man sich vom Boden entfernt, zeigte Pasteur folgendermaßen: Er füllte eine größere Anzahl Glasballons mit einer Nährlösung, erhitzte sie zum Kochen und schmolz die Spitze zu. Mit diesen Ballons verfuhr er folgendermaßen: Am Fuße des Juragebirges, in der Höhe von 850 Metern über dem Meeresspiegel und in der Höhe von 2000 Metern wurde von je 20 Ballons die Spitze abgebrochen, so daß Luft eintrat. Die Ballons wurden dann sofort wieder zugeschmolzen. Nach Verlauf einiger Tage zeigten sich von den Ballons, die am Fuße des Gebirges geöffnet waren, 8 mit Organismen gefüllt, 12 unverändert; in 850 m Höhe geöffnet, 5 mit Organismen gefüllt, 15 unverändert; in 2000 m Höhe geöffnet, 1 mit Organismen gefüllt, 19 unverändert.
Indem Pasteur seine Untersuchungen auf die Milchsäuregärung, die Essigbildung und die Fäulnis tierischer Stoffe aus[Pg 205]dehnte, gelangte er unter Anwendung aller Hilfsmittel der exakten Forschung zu dem Ergebnis, daß die erwähnten, bis dahin so dunklen Prozesse durch bestimmte niedere Organismen hervorgerufen werden, welche die zu ihrem Leben erforderliche Energie nicht durch Atmung, sondern durch Spaltung zusammengesetzter Kohlenstoffverbindungen beziehen. Gleichzeitig haben diese Untersuchungen Pasteurs die Frage nach der Urzeugung im verneinenden Sinne entschieden, während man bis dahin diese Art der Entstehung für die niedrigsten Organismen immer wieder durch Versuche stützen zu können glaubte.
Während man zu einer Einsicht in die Lebensvorgänge der Spalt- und Hefepilze vorwiegend auf dem Wege des Experimentes gelangte, führten die Vervollkommnung der optischen Hilfsmittel und die Entwicklung der mikroskopischen Technik seit dem Jahre 1840 zu einem von den hervorragendsten Erfolgen gekrönten Studium der übrigen kryptogamen Pflanzen.
Zu erwähnen sind hier Ungers Untersuchungen an Süßwasseralgen, welche dieser Forscher unter dem Titel »Die Pflanze im Momente der Tierwerdung« im Jahre 1842 veröffentlichte. Unger291 beobachtete die Anschwellungen einer Vaucheria clavata292 genannten Süßwasseralge (siehe Abb. 31). Er sah, daß sich in diesen Anschwellungen (Abb. 31) eine Spore A bildet, die sich nach dem Aufplatzen der Zellwand von der Pflanze trennt und sich unter lebhafter, drehender und fortschreitender Bewegung, sowie unter und Vermeidung aller Hindernisse im Wasser umhertummelt.
Um die Ursache dieser Bewegung zu erforschen, setzte Unger dem Wasser fein zerteilte Farbstoffe zu. Die wirbelnde Bewegung, mit welcher die Farbteilchen umhergeschleudert wurden, ließ ihn eine Verwandtschaft mit ähnlichen Erscheinungen, wie sie die meisten Infusorien darbieten, erkennen. Bei Anwendung starker Vergrößerungen fiel ihm auf, daß die Farbteilchen die Oberfläche der Schwärmsporen nicht berührten. Es schien, als würden die[Pg 206] Farbteilchen von einer unsichtbaren, die Schwärmsporen umgebenden Zone weggeschleudert. Unger brachte darauf, um die Schwärmspore zu töten, etwas Jodlösung auf sein Objekt. Sofort hörte die Bewegung auf, und die Spore zeigte sich von einer großen Menge feiner Wimpern umgeben, die in den ersten Augenblicken nach der Berührung mit dem Gifte noch einige schwache Pendelbewegungen und Krümmungen machten und dann für immer bewegungslos stillstanden.
Die Beweglichkeit dieser, einem Infusionstierchen zum Verwechseln ähnlichen, pflanzlichen Spore war jedoch nur von kurzer Dauer. Verfolgte Unger die Entwicklung ohne jeden gewaltsamen Eingriff, so verschwanden die Wimpern nach einigen Stunden. Gleichzeitig setzte die Spore sich fest und keimte (D und E). Nach vierzehn Tagen war die Entwicklung der Alge schon so weit fortgeschritten, daß die keulenförmigen Anschwellungen und die Bildung einer neuen Generation von Schwärmsporen stattfand. Der Kreislauf dieser Algen bietet somit eine Reihe von Wechselerscheinungen dar, die sich bald im Kreise des tierischen, bald im Kreise des pflanzlichen Lebens abspielen.
Die Vereinigung zweier Plasmamassen der Gattung Spirogyra zu einer Dauerspore war schon länger bekannt und als geschlechtlicher Vorgang gedeutet, bei dem es jedoch an einer Differenzierung[Pg 207] der sich verbindenden Körper fehlte. Das schönste Beispiel einer solchen Differenzierung lehrte die Untersuchung der Algengattung Fucus293 kennen. Zahlreiche analoge Fälle schlossen sich an, so daß um das Jahr 1860 die Sexualität für viele Gruppen der Kryptogamen erwiesen war.
Zu einem gänzlich unerwarteten und zunächst von seiten der ausschließlich Systematik treibenden Botaniker heftig befehdeten Ergebnis führte das genauere Studium der Flechten. Diese erwiesen sich nämlich nicht als einheitliche Organismen, sondern als Pilze, die auf Algen leben, indem sie letztere vollkommen in ihr Geflecht einschließen. Da man die Flechten meist unter Bedingungen antrifft, welche dem Pilz oder der Alge allein ein Fortkommen nicht gewähren, ließ sich dieses Verhältnis nicht als Parasitismus betrachten; man belegte es daher mit dem Namen »Symbiose«. Spätere Untersuchungen haben dargetan, daß eine solche Vergesellschaftung eine im Pflanzen- und Tierreiche weit verbreitete Erscheinung ist.
Während bis zum Jahre 1840 die mikroskopischen Studien vorzugsweise die fertigen Zustände der Organismen ins Auge faßten, begann man seit jenem Zeitpunkt die Entwicklung sowohl der niederen als auch der höheren Pflanzen Zelle für Zelle zu verfolgen. Das wichtigste Ergebnis dieser entwicklungsgeschichtlichen Untersuchungen war die Entdeckung, daß die höheren Kryptogamen mit den Phanerogamen in einem engen verwandtschaftlichen Zusammenhange stehen und daß die Koniferen, die Jussieu an die Spitze des Pflanzenreiches gestellt hatte, eine vermittelnde Stellung zwischen jenen beiden Hauptgruppen einnehmen294.
In noch höherem Maße als bei dem Studium der bisher berührten Vorgänge war man bei der Untersuchung der Ernährung und Bewegung auf die chemisch-physikalische Grundlage angewiesen. Nachdem Saussure und Liebig die Notwendigkeit, neben dem Wasser und dem Kohlendioxyd der Pflanze gewisse Nährstoffe zuzuführen, erkannt hatten, galt es in erster Linie, die Art der Aufnahme, sowie die physiologische Bedeutung jener Stoffe nachzuweisen. So entdeckte Dutrochet die wichtige Rolle, welche die Osmose für den Stoffwechsel besitzt.
Dutrochet295 hatte die Erscheinung der Osmose, mit der man um die Mitte des 18. Jahrhunderts bekannt geworden war296, zunächst vom rein physikalischen Standpunkte aus erforscht. Als einer der ersten Gegner der besonders von Bichat vertretenen vitalistischen Richtung suchte Dutrochet die Ergebnisse seiner osmotischen Untersuchungen zur mechanischen Erklärung der Vegetationsvorgänge zu verwerten. Den Gedanken, der ihn hierbei leitete, hat er am Schlusse seiner Arbeit in folgende Worte gekleidet: »Je tiefer man in die Lebenserscheinungen eindringen wird, um so mehr wird man die Meinung aufgeben, daß diese Erscheinungen wesentlich von den physikalischen verschieden sind, eine Meinung, die sich zwar auf die Autorität Bichats stützt, die aber zweifelsohne irrig ist«297.
Das Leben ist für Dutrochet nichts anderes als Bewegung. Der Tod ist deren Ende298. Wenn auch Dutrochet das Leben als ein chemisch-physikalisches Problem betrachtete und es mit den Hilfsmitteln der Physik und der Chemie zu ergründen strebte, so dachte er sich diese Aufgabe doch keineswegs leicht. Er ist vielmehr der Meinung, daß die Erforschung der Lebenserscheinungen der Tiere wohl auf unüberwindliche Schwierigkeiten stoßen werde. Doch vereinfache sich die Untersuchung bei den Pflanzen. An ihnen müsse man daher die Grundprobleme des Lebens zu lösen suchen. Dieser zutreffende Gedanke ist für die spätere Entwicklung der Physiologie maßgebend geblieben.
Eins der ersten und auch für die Folge wichtigsten Probleme, mit denen sich Dutrochet befaßte, war die Bewegung der Sinnpflanze299. Sind auch manche Einzelheiten seiner Untersuchung durch spätere Forscher widerlegt oder anders gedeutet worden,[Pg 209] so waren Dutrochets Ergebnisse doch in mehrfacher Hinsicht grundlegend. Einmal beseitigte er den Irrtum, daß zwischen den Bewegungen der Pflanzen und der Tiere ein grundsätzlicher Unterschied vorhanden sei. Noch Lamarck hatte behauptet, die Bewegungen der Pflanzen beständen in einer Beugung der Gelenke, und dieser Vorgang werde dadurch hervorgerufen, daß die Pflanze durch Verdunstung Flüssigkeit verliere.
Daß ein solcher Vorgang für die Sinnpflanze nicht in Betracht kommt, bewies Dutrochet, indem er die Pflanze ganz in Wasser tauchte und zeigte, daß ihre Blätter, obgleich jede Verdunstung ausgeschlossen ist, sich unter dem Einfluß von Stoß oder Berührung ebenso bewegen wie in der Luft.
Als Dutrochet seine Untersuchungen anstellte, bestand allgemein die Ansicht, daß Reizbarkeit, d. h. die Fähigkeit eine Bewegung so oft zu wiederholen wie der auslösende Reiz wirkt, ein spezifisches Merkmal des tierischen Lebens sei und daß eine Pflanze eine Bewegung nicht zu wiederholten Malen auszuführen vermöge. Diese Meinung widerlegte Dutrochet durch den Nachweis, daß es sich bei der Reizbarkeit der Tiere und der Pflanzen nicht um qualitative Unterschiede, sondern nur um eine Verschiedenheit in dem zeitlichen Ablauf der Bewegungen handle. Während bei den Tieren die Krümmung und die Streckung eines Organes meist rasch vor sich gehen und bald aufeinander folgen, handelt es sich bei den Reizbewegungen der Pflanze, wie Dutrochet zeigte, um gleichartige, aber meist sehr langsam und daher unauffällig sich abspielende Vorgänge.
In methodischer Hinsicht sind die Forschungen Dutrochets vor allem dadurch mustergültig, daß mit ihnen die zielbewußte Verknüpfung der anatomischen Untersuchung mit dem physiologischen Experiment beginnt. Wie Dutrochet diese Aufgabe löste, zeigen vor allem seine Arbeiten über die Anatomie der Mimose. Besondere Schwierigkeiten erwuchsen ihm daraus, daß die durch Malpighi und Grew begründete Anatomie der Pflanzen lange Zeit brach gelegen hatte und erst kurz vorher durch Link und Treviranus zu neuem Leben erweckt worden war300. Dutrochet war daher gezwungen, sich zunächst mit der Klarstellung mancher anatomischen Einzelheiten zu befassen. Hierdurch gelangte er zu einigen Ergebnissen von allgemeinster Bedeutung. So führte[Pg 210] Dutrochets Untersuchung zu einer grundsätzlich neuen Auffassung des Zellgewebes. Von der Begründung der Pflanzenanatomie bis zu ihrer Erneuerung in den ersten Dezennien des 19. Jahrhunderts hatte man das Zellgewebe mit dem Schaum einer gärenden Flüssigkeit oder mit einer Bienenwabe verglichen. Das heißt, man hatte angenommen, daß die Zellen kleine, durch eine gemeinsame Wand getrennte Fächer seien. Man hatte ferner die Hauptaufgabe der Anatomie in der Feststellung der Formeigentümlichkeiten dieses festen Zellgerüstes erblickt und sich um den Inhalt der Zellen wenig gekümmert. Dutrochet gelang es, das Zellgewebe in seine Elemente aufzulösen und darzutun, daß es sich bei den Zellen um allseitig geschlossene Bläschen handelt, die sie trennenden Membrane also nicht einfach, sondern doppelt sind.
Dieser Nachweis gelang dadurch, daß Dutrochet wohl als einer der ersten die Hilfsmittel der Chemie auf die Mikroskopie anwandte. Er brachte das zu untersuchende Zellgewebe in ein Gläschen mit Salpetersäure und tauchte dieses Gläschen in siedendes Wasser. Auf diese Weise gelang es, die Zellen durch Auflösung der sie verkittenden Interzellularsubstanz voneinander zu trennen, ohne das Gewebe völlig zu zerstören. Dutrochet wies auch schon darauf hin, daß eine bemerkenswerte Ähnlichkeit zwischen dem Aufbau des Pflanzengewebes und der Struktur mancher tierischen Organe bestehe. Er wurde dadurch wie Purkinje301 zu einem Vorläufer Schwanns, dem der Nachweis einer weitgehenden Übereinstimmung in dem mikroskopischen Aufbau des Tier- und Pflanzenkörpers vorbehalten blieb302.
Bei der Untersuchung der Sinnpflanze richtete sich Dutrochets Aufmerksamkeit in erster Linie auf die Anschwellungen oder Polster, die sich an der Anheftungsstelle jedes Blattstiels und jedes Fiederchens befinden (Abb. 32 c). Diese Polster erkannte Dutrochet[Pg 211] als den Sitz des Bewegungsvermögens. Das Mikroskop ließ ihn erkennen, daß die Polster aus einer starken Entwicklung des Rindenparenchyms hervorgehen. Machte er einen Einschnitt in das Polster, so floß augenblicklich ein Tropfen einer durchsichtigen Flüssigkeit aus. Wurde das Polster der Länge nach geteilt, und zerlegte man die so erhaltenen Hälften durch Querschnitte in halbkreisförmige Stücke, so krümmten sich diese sofort zum Kreise. Die Zusammenfassung dieser Erscheinungen legte schon Dutrochet die Vermutung nahe, daß es sich bei der Bewegung der Mimose um eine Spannung des Rindengewebes gegenüber dem mittleren Teil des Polsters und um eine in dem Turgor der durch reichliche Flüssigkeitsmengen angeschwollenen Zellen bestehende Kraft handelt. Auch die Erscheinung, daß sich der Reiz[Pg 212] fortpflanzt, so daß es genügt, nur ein Fiederchen des Mimosenblattes zu berühren, um nach und nach alle in Bewegung zu setzen, suchte Dutrochet durch sinnreiche Versuche zu enträtseln. Wenn hier auch erst fünfzig Jahre später die Untersuchungen Pfeffers Klarheit brachten, so ist das allgemeine Ergebnis, daß in der Pflanze Vorgänge stattfinden, die mit der Nerventätigkeit des Tieres in Parallele zu stellen sind und deshalb von Dutrochet als Nervimotion der Pflanze bezeichnet wurden, doch höchst wertvoll gewesen. Ohne den Zellinhalt, um den man sich bis dahin überhaupt kaum bekümmert hatte, genauer zu kennen, verlegte Dutrochet den Sitz der Nervimotion in diesen Inhalt und traf auch hiermit das Richtige.
Tiefer in den Kraft- und Stoffwechsel des pflanzlichen Lebens einzudringen, als Dutrochet es vermochte, war erst möglich, nachdem man in den vierziger und fünfziger Jahren des 19. Jahrhunderts mit dem protoplasmatischen Inhalt der Zelle, seinem Verhältnis zur Zellwand und zu allen auf ihn wirkenden chemischen und physikalischen Reizen näher bekannt geworden war. Erst nachdem dies geschehen, vermochten es Männer wie Brücke und Pfeffer, sich dem von Dutrochet in Angriff genommenen Probleme mit der Aussicht auf neue, größere Erfolge zuzuwenden.
Erwähnt sei noch, daß Dutrochet die zuerst von Knight303 untersuchten Richtungsbewegungen, wie den Geotropismus und den Heliotropismus, als Reizwirkungen auffassen lehrte. Es handelt sich nach Dutrochet bei diesen Erscheinungen nicht darum, daß den Pflanzenteilen Bewegungen durch äußere Kräfte gleichsam aufgedrängt werden. Solche Kräfte wirken vielmehr nur als äußere Faktoren oder Reize, welche die innere Lebenstätigkeit der Pflanze auslösen.
Bahnbrechend für die weitere Erforschung der Reizbewegungen waren die Untersuchungen304 des soeben erwähnten deutschen Physiologen Ernst Brücke305.
Die merkwürdigen Bewegungen der Sinnpflanze oder Mimosa pudica hatten schon im 18. Jahrhundert Untersuchungen veranlaßt. Dutrochet hatte, wie wir sahen, gefunden, daß die Gelenkwülste (Abb. 32 c) die Bewegungsorgane sind. Er hatte auch bemerkt, daß die Stiele und Blättchen nicht bewegt werden, indem die untere Hälfte des Wulstes sich etwa nach Art eines Muskels zusammenzieht. Während die tierische Irritabilität eine ausschließliche Eigenschaft der Muskeln ist, stand soviel fest, daß kein Teil im Organismus der Pflanze als Muskel bezeichnet werden kann. »Offenbar«, sagt Brücke, »kann es nicht genügen, daß man die untere Wulsthälfte mit einem Muskel vergleicht, denn es fehlt uns für einen solchen Vergleich sowohl in morphologischer als in physiologischer Hinsicht jeder Anhaltspunkt«. Die untere Wulsthälfte ist, wie Brücke zeigte, jedoch reizbar. War die untere Wulsthälfte nicht mehr vorhanden, so bekam Brücke durch die Einwirkung von Reizmitteln keine Veränderung mehr. Auch bei den Blattstielen zweiter Ordnung, die sich auf Reize hin gegen die verlängerte Achse des Blattstiels erster Ordnung bewegen (s. Abb. 32), erwies sich als die reizbare Seite diejenige, nach welcher hin die Bewegung erfolgt.
Über die Mechanik dieser Bewegungen sollte eine zufällige Beobachtung den ersten Fingerzeig geben. Bei der Reizung färbte sich nämlich die untere Wulsthälfte dunkel. Brücke wies nach, daß dieses Dunkelwerden darauf zurückzuführen ist, daß aus den Zellen, welche die untere Wulsthälfte bilden, bei der Reizung plötzlich Pflanzensaft austritt, der sich in die vorher mit Luft gefüllten Interzellularräume ergießt. Die durch plötzliche Abnahme der Turgeszenz hervorgerufene Erschlaffung des Zellgewebes, das die reizbare Hälfte bildet, ist danach allein die Ursache der eintretenden Krümmung. Die untere Wulsthälfte ist, wie Brücke erkannte, mit einer großen Menge von geschlossenen Schläuchen zu vergleichen, welche biegsame Wände besitzen und strotzend mit Flüssigkeit gefüllt (turgeszent) sind. Diese Schläuche liegen in einer gemeinsamen Hülle, der Rinde nämlich. Das Ganze wird eine gewisse Gestalt annehmen und einer äußeren Gewalt, die ihm eine Formänderung zu geben sucht, einen gewissen Widerstand entgegensetzen. Lassen die turgeszenten Zellen oder die Schläuche,[Pg 214] um in dem Bilde zu bleiben, plötzlich Flüssigkeit aus sich heraus und in die Zwischenräume treten, wo sie keinen Druck oder Turgor mehr ausübt, so wird mit der Änderung der Spannung eine Formveränderung eintreten, welche andauert, bis zwischen den wirkenden Kräften wieder ein Gleichgewichtszustand vorhanden ist.
Auf ähnliche mechanische Ursachen führte Brücke auch die Fortpflanzung des Reizes zurück, die sich an der Mimosa beobachten läßt. Durch Diffusionsversuche war er darauf aufmerksam geworden, daß bei einem gegebenen Druck Wasser durch die Zellwand viel leichter hindurchtritt, wenn auf beiden Seiten der Wand Wasser ist, als wenn sich auf der einen Seite Luft befindet. Dies bot den Schlüssel zum Verständnis dar. Sind nämlich die einzelnen Zellen strotzend mit Saft gefüllt, und veranlaßt ein leiser Druck, daß aus irgend einer Zelle etwas Saft austritt und in die Interzellularräume fließt, so kann dieser Saft, indem er die angrenzenden Zellwände benetzt, Veranlassung geben, daß aus den angrenzenden Zellen ebenfalls Saft austritt. Da die Interzellularräume zusammenhängen, so kann dieser Vorgang sich rasch fortpflanzen und einen neuen Gleichgewichtszustand des ganzen Pflanzengewebes herbeiführen.
Durch diese Untersuchung Brückes war zwar nicht das letzte Wort über die Mechanik der Reizbewegungen gesprochen. Man ersieht aber aus dem Einblick in den von Brücke eingeschlagenen Weg, daß hier eine Arbeit vorliegt, die es wegen der ganzen Art des Verfahrens und der Wichtigkeit der erlangten Ergebnisse wohl verdient, als ein »Glanzpunkt in der Entwicklung der Phytodynamik« bezeichnet zu werden306. Sie ist die Grundlage und das Muster für viele später auf diesem Gebiete geführte Untersuchungen gewesen.
In einer zweiten pflanzenphysiologischen Arbeit307 befaßte sich Brücke mit der alten, zuerst von Stephan Hales behandelten Frage, durch welche Kraft das Wasser aus der Erde bis in die Wipfel der Bäume emporgetrieben wird, und welches die Wege sind, die es hierbei durch die Wurzeln, den Stamm und die Äste nimmt. Das wichtige Ergebnis seiner Untersuchung bestand in dem Nachweis, daß nicht die Gefäße, wie man bis dahin meist angenommen hatte, sondern die lebenden Zellen den Blutungsdruck[Pg 215] erzeugen. Er fand nämlich im Frühling, kurz vor dem Beginn des Blutens, alle Zellen mit Flüssigkeit durchtränkt, die Spiralröhren bis in die Wurzel hinunter jedoch leer, d. h. nur mit Luft gefüllt. »Diese Tatsache«, bemerkt Brücke, »schließt von vornherein jede Hypothese über das primäre Aufsteigen des Saftes in den Spiralröhren aus«. Es zeigte sich vielmehr, daß der Saft aus den Zellen in die Spiralröhren übergeht und zwar erst, nachdem sich sämtliche Zellen des Stockes gefüllt haben. Die Frage, ob die Spiralröhren den Saft aus den Zellen aufsaugen oder ob er aus den Zellen in die Spiralröhren gepreßt wird, entschied Brücke im letzteren Sinne. Die einzige, den Spiralröhren innewohnende Kraft sei die Haarröhrchenanziehung (die Kapillarattraktion). Durch sie könne aber der Übergang des Saftes in die Spiralröhren nicht erklärt werden, da letztere einen weit größeren Durchmesser als die Zellen aufweisen. Wer daher meine, daß die Spiralröhren den Zellen das Wasser durch Kapillarattraktion entzögen, verlange nichts anderes, als daß in einem Vförmigen Kapillarrohr mit ungleich weiten Schenkeln das Wasser in dem weiteren Schenkel höher als in dem engeren stehe, also eine physikalische Unmöglichkeit.
Zu einem abschließenden Ergebnis über die Mechanik des Saftsteigens ist Brücke indessen keineswegs gelangt. Er hat neben einigen Richtigstellungen vor allem das Verdienst, diese Frage von neuem in Fluß gebracht zu haben, eine Frage, deren Lösung für die Pflanzenphysiologie ebenso wichtig sein mußte wie für die Tierphysiologie die Mechanik der Blut- und Lymphbewegung.
Aus den Untersuchungen Brückes und verwandter Forscher ging immer deutlicher hervor, daß in dem protoplasmatischen Inhalt der Zelle die unmittelbare Grundlage alles pflanzlichen und tierischen Lebens gegeben ist. Dieses wichtige Ergebnis fand seinen zutreffendsten Ausdruck in Brückes berühmter Abhandlung über die Elementarorganismen, ein Wort, das Brücke prägte, um die Zellen als organisierte Einheiten des Gesamtlebewesens zu kennzeichnen308.
Als die wesentlichsten Bestandteile der Zelle hatte Schwann die Membran, das Protoplasma, den Kern und das Kernkörperchen hingestellt. Als man dieses Schema auf alle Zellen anwenden[Pg 216] wollte, stellten sich jedoch Schwierigkeiten heraus. So erkannte man, daß die Membran durchaus kein notwendiger Bestandteil der Zelle ist. Eine Membran, sagt Brücke, kommt der Zelle in ihrer ersten Jugend wahrscheinlich allgemein nicht zu, sondern sie ist, wo sie sich findet, erst später durch einen allmählichen Verdichtungs- und Erhärtungsprozeß entstanden. Auch den Kern dürfe man nicht als wesentlichen Bestandteil in das Schema aufnehmen. Dagegen sei der Zellinhalt, das Protoplasma, der eigentliche Leib der Zelle, an dem sich die Lebenserscheinungen abspielen. Als man zuerst auf das Protoplasma aufmerksam wurde, hatte man es dem äußeren Anschein gemäß für eine strukturlose, eiweißartige Masse gehalten. Das Studium der am Protoplasma sich abspielenden Lebenserscheinungen ließ indessen eine solche Auffassung als unzulässig erkennen. Da man Erscheinungen, wie sie das Protoplasma zeigt, am Eiweiß als solchem durchaus nicht wahrnimmt, so mußte man der lebenden Zelle außer der Molekularstruktur der sie zusammensetzenden organischen Verbindungen noch eine andere Struktur zuschreiben, die Brücke als die Organisation des Protoplasmas bezeichnete. Die an sich schon sehr zusammengesetzten Moleküle der organischen Verbindungen sind in der lebenden Zelle nach Brücke nicht ohne eine bestimmte Anordnung, sondern sie erscheinen als die Werkstücke, die zum lebendigen Bau des Zellenleibes kunstreich zusammengefügt sind. Die Pflanzenzelle zeigte sich mithin, wenn auch der unmittelbare Aufschluß durch das Mikroskop noch fehlte, nicht minder kunstvoll gebaut als die aus ihnen zusammengefügte, ganze Pflanze. »Dies Bewußtsein«, sagt Brücke, »müssen wir nicht allein zur Untersuchung der kleinsten Tiere mitbringen, sondern auch zur Untersuchung der tierischen und pflanzlichen Zellen. Wir müssen in der Zelle immer einen kleinen Leib sehen und dürfen die Analogien, die zwischen der Zelle und den kleinsten Tierformen bestehen, nie aus den Augen lassen.« Brückes Ausführungen haben den neueren Forschungen über das Wesen der Zelle Ziel und Richtung gegeben, so daß seine Abhandlung über die Elementarorganismen mit Recht als das Programm für die neuere Zellforschung309 bezeichnet werden konnte.
In gleichem Maße wie die Botanik wurde die Zoologie von der experimentellen Forschungsweise durchdrungen. Unter den Männern, die um die Mitte des 19. Jahrhunderts diese Forschungs[Pg 217]weise auf das Studium des tierischen Organismus angewandt haben, ist in erster Linie Weber zu nennen.
Ernst Heinrich Weber wurde 1795 in Wittenberg geboren. Er lehrte als Professor der Anatomie und der Physiologie in Leipzig, wo er 1878 starb. Ernst Heinrich Weber war der Bruder des als Physiker und Mitarbeiter von Gauß bekannten Wilhelm Weber. Letzterer und der ältere Bruder Ernst Heinrich schufen zunächst eine grundlegende physikalische Arbeit in dem Werke: Die Wellenlehre auf Experimente gegründet310. Während Wilhelm sich auch in seinen späteren Forschungen auf die Physik beschränkte, ließ es sich Ernst Heinrich angelegen sein, diese Wissenschaft in ihren Ergebnissen und in ihrem Verfahren auf das Gebiet der Physiologie anzuwenden. Wohl der glänzendste unter seinen in dieser Richtung abzielenden Versuchen ist E. H. Webers Abhandlung: Über die Anwendung der Wellenlehre auf die Lehre vom Kreislauf des Blutes, insbesondere auf die Pulslehre311.
Weber hat zuerst eingehend begründet, daß bei der Blutbewegung zwei Vorgänge scharf unterschieden werden müssen, nämlich die nur langsam vor sich gehende Strömung des Blutes und die Fortbewegung der Pulswelle, die sich mit solcher Geschwindigkeit fortpflanzt, daß frühere Beobachter glaubten, der Pulsschlag trete in allen Teilen des Arteriensystems gleichzeitig auf. Weber dagegen stellte schon 1827 fest, daß die in den Arterien erregten Wellen zwar eine sehr kurze, aber noch wahrnehmbare Zeit beanspruchen, um sich durch das Arteriensystem auszubreiten. Seine Versuche ergaben, daß das Anschlagen der Pulswelle in der äußeren Kieferarterie an der Stelle, wo sie an die untere Kinnlade gedrückt werden kann, etwa 1/7 Sekunde früher gefühlt wird als das Anschlagen in dem über den Fußrücken laufenden Zweig der Schienbeinschlagader. Da der Wegunterschied, um den es sich hierbei handelt, 132 cm beträgt und dieser in 1/7 Sekunde durchlaufen wird, so ergab sich für die Geschwindigkeit der Pulswelle im Körper des Menschen ein Wert von 9,24 Metern.
Es galt nun, diese Beobachtung durch rein physikalische, dem im Organismus sich abspielenden Vorgang in seinen Bedingungen[Pg 218] möglichst entsprechende Versuche nachzuprüfen. Dies geschah, indem Weber die Fortpflanzungsgeschwindigkeit der Welle in einem mit Flüssigkeit gefüllten, elastischen Rohre maß. Das Ergebnis belief sich auf 11,26 Meter in der Sekunde, während nach der von Weber und seinem Bruder entwickelten Theorie die Rechnung den Wert von 10,15 Metern ergeben hatte.
Für die Pulswelle kommen zwei Umstände in Betracht, die bei dem Gang der Untersuchung in Rücksicht gezogen werden mußten. Einmal ist die Flüssigkeit, um die es sich hier handelt, nicht nur inkompressibel, sondern gleichzeitig in Strömung begriffen. Ferner steht sie unter einem erheblichen Drucke, wie schon Hales312 durch seine Versuche am Pferde dargetan hatte.
Zunächst wurde der Druck variiert, indem Weber die in einer Kautschukrohre befindliche Flüssigkeit einmal dem verschwindend kleinen Druck einer 8 mm hohen Wassersäule, das zweite Mal dem Drucke einer 3500 mm hohen Säule aussetzte und jedesmal die Geschwindigkeit der Wellenbewegung maß. Die Spannung war beim zweiten Versuche so bedeutend, daß sich der Durchmesser der Kautschukrohre von 35,5 mm auf 41 mm vergrößerte. Trotz dieser Verschiedenheit des Druckes ergab sich kaum ein Unterschied in der Geschwindigkeit der Wellenbewegung313.
Benutzte Weber an Stelle der Kautschukrohre einen gerade gelegten, durch geringen Druck gespannten Dünndarm, so wurde es Weber möglich, derartige Wellen unmittelbar zu verfolgen und die ihnen zukommenden Erscheinungen, wie z. B. die Reflexion der Wellen an dem geschlossenen, unbeweglichen Ende des Darmes zu beobachten.
Endlich richtete Weber seine Versuche den im Körper obwaltenden Verhältnissen entsprechend so ein, daß er den Schlauch in sich selbst zurückleitete und mit einem das Herz vorstellenden Pumpwerk versah, so daß ein vereinfachter Kreislauf hergestellt wurde, durch den viele Erscheinungen des Blutkreislaufs veranschaulicht werden konnten. Webers Versuchsanordnung wird durch nachstehende Abbildung 33 erläutert.
Das Stück Dünndarm h vertritt die Stelle der linken Hauptkammer. Es wird an seinem Eingange b und an seinem Ausgange g mit Ventilen versehen, welche den betreffenden Herzventilen ent[Pg 219]sprechend gebaut sind. Das arterielle System wird durch aa', das venöse durch vv' dargestellt. An Stelle der Kapillargefäße wirkt der poröse, zwischen a' und v' eingeklemmte Schwamm c. Durch l wird der Apparat mit Wasser gefüllt und dann geschlossen. Drückt man bei v den Darm zusammen, so leistet v den Dienst der Vorkammer und h denjenigen der Herzkammer. Eine besondere Vorkammer ist in dem Modell nicht nötig, weil sich zwischen der Vorkammer und den Venen kein Ventil befindet. Beim Zusammendrücken von h schließt sich das Ventil bei b und hindert die Flüssigkeit nach v auszuweichen. Sie wird daher durch g nach a gedrängt. Da aa' eine dehnbare, elastische Röhre ist, findet sie hier Platz. Daß die Spannung die Flüssigkeit nach h zurücktreibt, verhindert das Ventil bei g. Wäre die Röhre aa' v'v überall gleich weit, so würde in ihr überall der gleiche Druck herrschen. Wird aber die Röhre bei c durch einen Schwamm verstopft, der die Kapillargefäße vorstellt, so kann die Flüssigkeit dort infolge der Reibung nicht schnell genug hindurchdringen. Die von a kommende Wellenbewegung wird daher in c reflektiert. Dasselbe geschieht im Menschen durch die Kapillargefäße, so daß man in den Venen den Puls nicht mehr wahrnehmen kann. Geschieht in h die[Pg 220] Zusammenziehung in rascher Folge, so findet im Abschnitt aa' eine Ansammlung der Flüssigkeit und eine Steigerung des Druckes statt. Es nimmt nämlich die Menge der Flüssigkeit in aa' (dem arteriellen Teil des Gefäßsystems entsprechender Abschnitt des Rohres) so lange zu und in vv' (den Venen entsprechend) so lange ab, bis der Unterschied des Druckes in aa' und vv' so groß ist, daß von einem Zusammenpressen bei h (Herz) bis zum andern gerade so viel Flüssigkeit durch die Poren des Schwammes (Kapillargefäße) dringt, als von h nach a getrieben wird. Ist dieser Beharrungszustand eingetreten, so ist der Druck in aa' vielleicht 10mal größer als in vv'. In Übereinstimmung mit diesen Versuchsergebnissen fand auch schon Hales den Blutdruck in den Arterien 10-12mal so groß wie in den Venen315.
Das Arteriensystem leistet infolge der Elastizität seiner gespannten Gefäßwände, wie Weber sich ausdrückt, einen ähnlichen Dienst wie der Windkessel in den Feuerspritzen. Durch den Überdruck, der in den Arterien herrscht, wird nämlich ein ununterbrochenes Strömen des Blutes durch die Haargefäße in die Venen316 verursacht.
Wir haben bei diesen Versuchen etwas länger verweilt, weil sie ganz besonders geeignet sind, einen Einblick in die Werkstatt und die Arbeitsweise des modernen Physiologen zu gewähren. Durch Webers Abhandlung haben die wichtigsten Fragen über die beim Blutkreislauf sich abspielenden Vorgänge ihre Erledigung gefunden. Aus diesen Gründen, vor allem aber wegen der meisterhaften Art der Darstellung und der Zurückführung verwickelter Vorgänge auf einfachere Erscheinungen ist Webers kleine Schrift zur Einführung in die neuere Physiologie besonders geeignet.
Die Mechanik des Blutkreislaufes wurde zwar, wie wir soeben erfuhren, durch Webers Untersuchungen in befriedigender Weise erklärt. Weit schwieriger gestaltete sich indessen die mit dem Blutkreislauf in engster Beziehung stehende Frage nach der absondernden Tätigkeit der Drüsen. Den wichtigsten Versuch, hierüber durch das Hilfsmittel der experimentellen Forschungsweise Klarheit zu gewinnen, verdanken wir Ludwig317.
Daß viele Drüsen nur unter der Wirkung der Nerven ihr Sekret absondern, war bekannt. Diese Wirkung kann darin bestehen, daß der Nerv, der zu der betreffenden Drüse in Beziehung steht, die Muskeln der in ihr enthaltenen Gefäße zu Kontraktionen veranlaßt und dadurch den Blutdruck vermehrt. Es wäre aber auch möglich, daß die Nerven nicht durch die erwähnte Änderung der mechanischen Bedingungen die Sekretion hervorrufen, sondern daß sie unmittelbar auf die sezernierenden Elemente wirken, indem sie ihre chemischen Eigenschaften ändern. Hierüber sollten die Versuche Ludwigs entscheiden.
Für diese Versuche wählte Ludwig die Unterkieferspeicheldrüse (Glandula submaxillaris), welche gleich den übrigen Speichel absondernden Organen (der Unterzungenspeicheldrüse und der Ohrspeicheldrüse) paarweis vorhanden ist. Die Unterkieferspeicheldrüse wurde gewählt, weil sie selbst und die für sie in Betracht kommenden Nerven und Blutgefäße leicht freigelegt werden können. Auch ist ihr Ausführungsgang selbst bei kleineren Tieren weit genug, um das Einführen eines Quecksilbermanometers zu gestatten. Endlich liefert diese Drüse in kurzer Zeit eine beträchtliche Menge ihres Sekrets. Die Absonderung des letzteren erfolgt durch Nervenreiz. Und zwar sind es Äste des vom Gehirn entspringenden dreigeteilten Nerven, des Trigeminus, welche die Drüsentätigkeit hervorrufen.
Ludwigs Messungen erstreckten sich nun auf drei Vorgänge, deren gegenseitige Abhängigkeit zu untersuchen war, auf die Nervenerregung, den Blutdruck und die Sekretionskraft. Der Nerv wurde gereizt durch den von Du Bois Reymond für physiologische Zwecke eingerichteten Magnetinduktionsapparat318. Wenn auch kein absolutes Maß für die Nervenerregung zur Verfügung stand, so ließ sich doch der erregende Einfluß des Stromes durch Verstärkung desselben oder durch Einschalten eines mehr oder minder großen Nervenstücks in den Stromkreis variieren. Der Druck unter dem das Drüsensekret austritt, wurde nach dem von Hales zur Bestimmung des Wurzeldruckes in die Wissenschaft eingeführten Verfahren319 mit Hilfe des Quecksilbermanometers ge[Pg 222]messen. Die Quecksilbersäule begann wenige Sekunden nach der ersten Wirkung des Magnetinduktionsapparates zu steigen und erreichte oft eine bedeutende Höhe. Gleichzeitig mit dem Absonderungsdruck wurde der Blutdruck in den die Drüsen versorgenden Gefäßen mittelst einer Meßröhre ermittelt.
Die Untersuchung bewies unzweifelhaft, daß die Kraftquelle, welche den Speichel in die Drüsengänge hineintreibt, unter keinen Umständen in der Kraft, welche das Blut bewegt, gesucht werden kann. Der Sekretionsdruck steigt nämlich sehr schnell, während der Blutdruck in der benachbarten Arteria carotis (Halsschlagader) fast unverändert bleibt. Von Bedeutung für die Ermittlung und Darstellung derartiger Versuchsergebnisse war das um jene Zeit immer mehr sich einbürgernde Registrier- und Aufzeichnungsverfahren. Um die zu messenden Größen für jedes Zeitteilchen zu registrieren, bediente sich Ludwig des von ihm erfundenen Kymographions, eines Apparates, der die Höhe des Blutdrucks mißt und aufzeichnet. Ein Beispiel möge uns zeigen, wie dieses graphische Verfahren von Ludwig auf physiologische Versuche angewandt wurde.
Die Versuche wurden in der erläuterten Weise an einem Hunde angestellt. Die Beobachtungszeit, welche in der graphischen Darstellung (Abbildung 34) auf der Abszisse abzulesen ist, betrug 52 Sekunden. Während dieser Zeit erhob sich der Sekretionsdruck von 0 auf 190 mm Quecksilberdruck. Er wird in der Abbildung durch die Kurve AAA dargestellt. Wir ersehen aus der Zeichnung, daß nach Ablauf der halben Zeit der Sekretionsdruck schon die Höhe des Blutdruckes erreicht hatte. Letzterer betrug von geringen Schwankungen abgesehen (siehe die Kurve CCC) unverändert etwa 112 mm Quecksilberdruck. Der Sekretionsdruck erreichte mitunter den doppelten Wert des gleichzeitig in der Halsschlagader herrschenden Mitteldrucks.
Der Versuch wurde jetzt in der Weise abgeändert, daß während seiner Dauer der Druck in einer aus der Speicheldrüse kom[Pg 223]menden Vene gemessen, im übrigen aber alle früheren Bedingungen eingehalten wurden. Das Ergebnis war das gleiche. Der Absonderungsdruck stieg bei schwacher Erregung der Nerven auf 85, bei starker auf 125 mm, während der Druck in der Vene ohne alle Schwankungen während der ganzen Dauer des Versuches 12 mm betrug.
Ihren Abschluß fanden diese Versuche durch den Nachweis, daß die Speichelabsonderung durch Reizung des Nerven auch nach dem Aufhören des Blutkreislaufes bei vollkommenem Stillstand des Herzens hervorgerufen werden kann. Damit war die ältere Filtrationstheorie, welche annahm, daß infolge einer Erhöhung des Blutdruckes durch eine Art von Filtration das Sekret aus dem Drüsengewebe in die Kanäle übertrete, widerlegt.
Daß es sich bei der Speichelabsonderung nicht um eine beim Kauen vor sich gehende Auspressung des Sekretes handeln kann, wurde durch die Beobachtung widerlegt, daß mitunter während einer Reizung in ununterbrochenem Strome eine Speichelmenge abgesondert wird, die an Volumen die Speicheldrüse selbst um das Vierfache übertrifft320.
Wenn wir uns diese Reihe von glänzenden Versuchen und das von Ludwig in die Physiologie eingeführte graphische Verfahren noch einmal vergegenwärtigen, wird uns das Unzutreffende recht offenbar, das in dem Worte Goethes liegt: »Was die Natur dem Geist nicht offenbaren mag, das zwingst du ihr nicht ab mit Hebeln und mit Schrauben«. Es ist eben ein Wort, das unter dem Einfluß der extremen Richtung der älteren Naturphilosophie entstanden war, einer Richtung, in deren Überwindung gegen die Mitte des 19. Jahrhunderts der Fortschritt der Naturwissenschaft und einer mit ihr verbundenen, echten Naturphilosophie liegt, wie sie sich heute immer mehr, gestützt durch die aus der Geschichte der Naturwissenschaft entnommenen Lehren, emporringt. Ludwigs Arbeit, durch welche die unmittelbare Einwirkung der Nerventätigkeit auf die Sekretion nachgewiesen wurde und deren für dieses Gebiet grundlegendes Studium durch die Herausgabe in der Ostwaldschen Sammlung erleichtert ist, fand ihre Fortsetzung besonders durch Claude Bernard (1813 bis 1878). Letzterer untersuchte den Einfluß der Nerven auf die die übrigen Verdauungssäfte in den Magen und den Darm abscheidenden Drüsen.[Pg 224] Dabei entdeckte er, daß die Leber auch Zucker bildet, und daß die abnorm gesteigerte Zuckerbildung dieses Organs, die Harnruhr oder Diabetes, durch die Verletzung eines bestimmten Teils des Nervensystems, nämlich des vierten Hirnventrikels (Zuckerstich) hervorgerufen werden kann.
Außer den erwähnten Untersuchungen von allgemeinster Bedeutung über den Blutkreislauf und die Bildung der Sekrete wurde die Physiologie durch manche Arbeit über vereinzelt vorkommende Erscheinungen gefördert. Hierher gehört vor allem eine Arbeit des auch auf dem Gebiete der Pflanzenphysiologie so hochverdienten Brücke321. Sie handelt von dem Farbenwechsel des Chamäleons322.
Die merkwürdige Erscheinung, welche dieses Tier darbietet, hatte zahlreiche Forscher von Aristoteles an beschäftigt und die einander widersprechendsten Meinungen hervorgerufen, so daß eine mit den Hilfsmitteln der neueren Physiologie am lebenden Material ausgeführte Untersuchung sehr erwünscht erschien. Dieser unterzog sich denn auch Brücke.
Aristoteles hatte nur das Aufblähen und den Tod als Ursachen des Farbenwechsels angeführt323. Plinius dagegen war der Ansicht, das Chamäleon ändere seine Farbe in der Weise, daß es die Farbe der Umgebung annehme324. Er scheint damit die damals herrschende Meinung wiedergegeben zu haben. Nach dem Wiederaufleben der Wissenschaften hat zuerst ausführlich über den Farbenwechsel des Chamäleons Kircher (1601-1680) in seiner Schrift über Licht und Schatten berichtet325. Kircher schildert das Verhalten auf Grund eigener Beobachtungen. Er brachte das Tier auf verschiedenfarbige Tücher und fand, daß es jedesmal seine Hautfarbe der Farbe des betreffenden Tuches anzupassen wußte. Nach Kirchers Meinung ist dieses Verhalten der sicherste Schutz des nur langsamen und scheuen Geschöpfes gegen die Nachstellungen seiner Feinde. Hinsichtlich der neueren Literatur[Pg 225] über diesen Gegenstand sei auf Brückes Arbeit hingewiesen, deren wichtigste Ergebnisse hier kurz skizziert werden sollen.
An den ihm zur Verfügung stehenden Tieren fand Brücke alle Farben von Orange bis zum Blaugrün vertreten. Jede dieser Farben vermochte durch Braun in Schwarz überzugehen. Auch Weiß und Grau kamen vor.
Brücke zeigte nun zunächst durch eine eindringende, histologische und physikalische Untersuchung, wie diese Farben zustande kommen und wies gleichzeitig darauf hin, daß die ganze Erscheinung durchaus nicht so vereinzelt dasteht, wie man früher glaubte. Alle Tiergruppen, besonders die Seetiere, bieten, wie Brücke hervorhob, zahlreiche bisher nicht untersuchte Farbenerscheinungen. Ja, das Tierreich enthalte einen Reichtum an optischen Phänomenen ähnlich demjenigen, den das Polariskop im Mineralreich erschlossen habe. Diese Farben kommen durch Interferenz oder durch die verschiedenartige Stellung, welche Pigmentschichten durch Superposition oder Juxtaposition zueinander einnehmen oder endlich, wie es beim Chamäleon der Fall ist, aus beiden Ursachen zustande.
Brücke fand nämlich in der Oberhaut des Chamäleons eine Schicht polygonaler Zellen, welche lebhafte Interferenzfarben zeigen. Diese Farben werden nach dem bekannten Prinzip der dünnen Blättchen erzeugt, während die Interferenzfarben auf den Schuppen der Schmetterlinge und den Schildern der Schlange durch feine parallele Leisten wie die Farben der irisierenden Knöpfe hervorgerufen werden. Die Leisten haben z. B. bei den Bandschildern der Ringelnatter einen Abstand von nur 0,0007 Millimetern. Unter der irisierenden Schicht, welche in der Oberhaut des Chamäleons liegt, befinden sich in der eigentlichen Haut (der Cutis) dieses Tieres zwei Pigmentschichten. Zunächst begegnet uns ein helles Pigment von blaßgelber bis orangeroter Farbe. Dann folgt in größerer Tiefe ein schwarzes Pigment, das in verzweigten Zellen unter, z. T. auch in der Masse des hellen Pigmentes liegt. Dadurch, daß dieses schwarze Pigment die Fähigkeit besitzt, bald an die Oberfläche zu kommen, bald in die Tiefe zurückzugehen, wird, wie Brücke dargetan hat, der merkwürdige Farbenwechsel der Haut hervorgerufen. Ähnlich entsteht auch die blaue Farbe des Auges. »Die Iris des schönsten blauen Auges«, sagt Brücke326, »enthält keine Spur von einem blauen Pigment. Ihre Farbe rührt[Pg 226] lediglich davon her, daß ihr durchscheinendes Gewebe vor einer schwarzen Pigmentschicht (in der Aderhaut gelegen) ausgebreitet ist. Sobald man diese Schicht entfernt, verschwindet auch das Blau. Nach demselben Prinzip werden sehr häufig blaue und grüne Tinten bei Eidechsen und Schlangen erzeugt«.
Betrachtet man eine Hautstelle des Chamäleons, so wird diese Stelle hell erscheinen, wenn das schwarze Pigment soweit zurückgezogen ist, daß die darüber befindliche Schicht kein Licht mehr durchläßt. Nähert sich das dunkle Pigment der Oberfläche, so geht die helle Farbe in Blaugrau und endlich in Violettgrau über.
Nachdem Brücke auf solche Weise gezeigt, wie die verschiedenen Farben zustande kommen, blieb noch die Ermittlung der den Farbenwechsel hervorrufenden Umstände übrig. Brückes Versuche nach dieser Richtung ergaben, daß unter den Einflüssen, welche den Farbenwechsel bewirken, vor allem das Licht in Betracht kommt. In einen dunklen Raum gebracht, wurden die Tiere bald hell. Den höchsten Grad von Dunkelheit erreichten sie, wenn sie sich behaglich sonnten. Wurde ihnen dabei ein Halsband von Stanniol umgelegt, so hatte sich darunter nach einigen Minuten ein heller Streif gebildet.
Die Frage, ob etwa die erwärmende Kraft des Lichtes hierbei eine Rolle spielt, mußte verneint werden. Die Farbenänderung wurde nämlich schon durch das Licht einer Kerze bewirkt, während der Aufenthalt in einem auf 33° erhitzten, vor Licht geschützten Brutofen auf diese Änderung keinen Einfluß hatte. Ja, bei Kerzenlicht färbte sich die Haut des Tieres sogar dunkler, wenn letzteres schlief. In diesem Falle handelt es sich also offenbar um eine reine Reflexbewegung. Doch ist der Farbenwechsel auch der Willkür des Tieres unterworfen. Selbst vergiftete Tiere ließen während des Todeskampfes den Einfluß des Lichtes auf die Farbe noch deutlich erkennen. Eine ähnliche Reflextätigkeit läßt sich an den Augen beobachten, indem eine Reizung des Sehnerven eine Zusammenziehung der die Pupille verengenden Muskelfasern des Sphincter pupillae auslöst.
Eine merkwürdige Beobachtung machte Brücke, als er an Stelle des Lichtes die Elektrizität als Reizmittel auf die Haut des Chamäleons wirken ließ. Unter der Einwirkung der Elektrizität wurden nämlich dunkle Stellen hell, während die hellen keine Veränderung erlitten. Daraus ließ sich ganz gegen alle Erwartung nur schließen, daß derjenige Zustand, bei welchem das dunkle[Pg 227] Pigment bis unter die Epidermis reicht, der passive und derjenige, bei dem es in der Tiefe verborgen und das Tier infolgedessen hell ist, der aktive Zustand ist. Im Grunde genommen löste also nicht das Licht, sondern die Abwesenheit von Licht, die Dunkelheit, die Reflexbewegung aus. Um hierfür noch einen weiteren Beweis zu liefern, zerstörte Brücke bei einigen Versuchstieren den Sitz der Reflexbewegung, das Rückenmark, dann mußte der passive Zustand eintreten, und wirklich zeigte es sich, daß dies derjenige ist, bei welchem das dunkle Pigment aus der Tiefe emporsteigt und die Haut schwarz erscheinen läßt. Als nämlich Brücke bei einem Chamäleon das Rückenmark zerstörte, wurde es sofort ganz schwarz. Tötete er das Tier dagegen, indem er das Herz herausschnitt, so wurde die Haut erst nach und nach schwarz, weil in diesem Falle die Tätigkeit des Rückenmarks allmählich erlosch327.
Auch diese Arbeit zeigt uns, wie erst das induktive Verfahren biologische Erscheinungen, die für Jahrtausende Rätsel waren, aufzuhellen vermocht hat. Schon Brücke sprach die Hoffnung aus, daß eine umfassende Untersuchung über die Farben der Tiere und ihre Entstehung einen schätzbaren Beitrag nicht nur für die Zoologie, sondern auch für die Farbenlehre liefern werde. Seitdem ist der durch bewegliche Gewebselemente hervorgerufene Farbenwechsel als eine im Tierreich sehr verbreitete, mit den Lebensbedingungen aufs Engste verknüpfte Erscheinung erkannt worden, so daß das Verhalten des Chamäleons nicht mehr als etwas Vereinzeltes und Absonderliches, sondern als eine Steigerung einer »chromatischen Funktion« des Tierorganismus erscheint.
Erwähnt seien von neueren Untersuchungen über diesen Gegenstand diejenigen Biedermanns am Frosch und am Goldfisch. Letzterer besitzt ein bewegliches gelbes Pigment, während beim Frosch (Rana temporaria) durch Nervenreizung das schwarze Pigment zusammengeballt und das gelbe ausgebreitet wird.
Um die grundlegenden neueren Untersuchungen auf dem Gebiete der Physiologie des Gesichtssinnes hat sich Listing die hervorragendsten Verdienste erworben. Wir verdanken ihm unter[Pg 228] anderem eine wertvolle mathematische Untersuchung über den Gang, den die Lichtstrahlen im Auge nehmen, sowie die Festsetzung von Maßen für das vereinfachte schematische Auge, die später Donders328 in die Praxis eingeführt hat.
Das Auge kann als ein System von drei das Licht verschieden brechenden Mitteln angesehen werden, welche durch sphärische Flächen getrennt sind. Die Krümmungsmittelpunkte dieser Flächen liegen auf einer geraden Linie, der Augenachse. Das erste Mittel wird von der wässerigen Feuchtigkeit gebildet, welche die vordere Augenkammer ausfüllt, das zweite von der Linse und das dritte von dem Glaskörper. Die trennenden Häute (Hornhaut, Linsenkapsel) werden diesen Teilen zugerechnet.
Um die mathematische Ableitung für den Gang, den die Lichtstrahlen in einem solchen System nehmen, zu vereinfachen, hatte zuerst Gauß gewisse Punkte eingeführt, die er Hauptpunkte nannte329. Sie sind dadurch definiert, daß Bild und Gegenstand in ihnen gleich groß und gleich gerichtet sind, d. h. auf derselben Seite der Achse liegen. Die durch diese Punkte senkrecht zur Achse gelegten Ebenen nennt man die Hauptebenen. Die Hauptpunkte liegen nach Listing in der vorderen Augenkammer. Ihre gegenseitige Entfernung beträgt nur wenige Zehntel eines Millimeters330. Außer den beiden Brennpunkten und den beiden Hauptpunkten nahm Listing noch zwei weitere Punkte auf der Achse[Pg 229] des Auges an, die er als die Knotenpunkte bezeichnete. Sie haben die Eigenschaft, daß die durch sie laufenden konjugierten Strahlen einander parallel sind, d. h. verbindet man den ersten Knotenpunkt mit dem leuchtenden Punkte und den zweiten mit dem Bildpunkt, so laufen diese Verbindungslinien parallel. Die beiden Knotenpunkte fallen ganz in die Nähe der hinteren Fläche der Kristalllinse. In der nebenstehenden Abbildung ist die Lage dieser drei Punktpaare, welche die Kardinalpunkte sind, weil sie das optische System vollkommen bestimmen, nach Listing dargestellt331.
Listing zeigte weiter, daß für die meisten Anwendungen sowohl die Hauptpunkte wie die Knotenpunkte, die unter sich sehr nahe beieinander liegen, in je einen einzigen mittleren Punkt vereinigt werden können332. So entsteht Listings »reduziertes Auge«, dessen Wirkung für alle praktischen Fälle gleich derjenigen des wirklichen Auges gesetzt werden kann.
Die Maße, welche Listing für sein reduziertes Auge findet, sind die folgenden: Die Entfernung des aus den beiden Hauptpunkten entstandenen mittleren Hauptpunktes von dem vorderen Brennpunkt (F0E) und die Entfernung des mittleren Knotenpunktes vom hinteren Brennpunkt (FK) sind gleich groß. Diese Entfernungen betragen jede etwa 15 mm, während der Abstand des mittleren Hauptpunktes vom mittleren Knotenpunkte 5 mm beträgt. In dem reduzierten Auge liegt nach Listing der einfache Hauptpunkt 2,34 mm hinter der vorderen Fläche der Hornhaut und der einfache Knotenpunkt 0,47 mm vor der hinteren Fläche der Linse333.
In seinem »Beitrag zur physiologischen Optik« gibt Listing auch eine vortreffliche Beschreibung und Erklärung der von ihm »entoptisch« genannten Erscheinungen. Es sind das Gesichtserscheinungen, bei welchen Teile des Auges selbst gewissermaßen als Objekte wahrgenommen werden. Zu ihnen zählen die »fliegenden Mücken«, die Aderfigur und anderes. Bisher hatte man diese Erscheinungen den subjektiven beigezählt. Listing schlug vor, sie als Übergangsgruppe zwischen den subjektiven und den eigentlichen objektiven Wahrnehmungen des Auges zu betrachten und legte ihnen deshalb die erwähnte besondere Bezeichnung bei.
Als Ursache einer bis dahin unbekannten entoptischen Erscheinung erkannte Listing den Umstand, daß in den meisten Augen die brechenden Medien mit undurchsichtigen Stellen behaftet sind, die hinsichtlich ihrer Gestalt und ihrer gegenseitigen Lage sehr verschieden sind und entoptisch wahrgenommen werden können.
Listing zeigte ferner, daß sogar durch äußere Eingriffe entoptische Erscheinungen hervorgerufen werden können334. Wird z. B. das Auge gerieben, so bilden sich an der Hornhaut Unebenheiten und Faltungen, welche dadurch bemerkbar werden, daß im Gesichtsfelde Verschleierungen auftreten. Diese Verschleierungen besitzen ein den Kräuselungen der Hornhaut entsprechendes welliges Aussehen. Während der Bewegungen der Augenachse verschieben sie sich, behalten aber ihre gegenseitige Lage bei. Nach einiger Zeit wird die Hornhaut wieder glatt und gleichzeitig verschwindet auch die Erscheinung, was auf den geschilderten entoptischen Ursprung hinweist.
Selbst Unregelmäßigkeiten in der Verteilung der Tränenfeuchtigkeit können, wie Listing nachwies, entoptisch wahrgenommen werden. Staut man nämlich durch kleine Bewegungen des halbgesenkten Augenlides die Feuchtigkeit auf, so läßt sich dieses Aufstauen an den gebänderten Streifen beobachten, welche in geringer Entfernung vom Lidrande entstehen, um allmählich infolge der wieder eintretenden, gleichförmigen Verteilung der Feuchtigkeit wieder zu verschwinden.
Die Experimentalphysiologie leitet zur Psychologie hinüber und schlägt dadurch eine der wichtigsten Brücken zwischen Philosophie und Naturwissenschaft, wenn sie sich eingehender mit der Erforschung der Funktionen unserer Sinnesorgane und der Natur der durch diese Organe vermittelten Empfindungen beschäftigt. Eine der wichtigsten nach dieser Richtung unternommenen Arbeiten ist Webers 1846 erschienene Untersuchung über den Tastsinn335.
Für den Physiker und den Chemiker ist es von der größten Wichtigkeit, die Instrumente zu prüfen, deren sie sich bedienen, und zu ermitteln, wieweit sie sich darauf verlassen können. Ebenso wichtig ist es für den Physiologen, die Sinnesorgane, die dem Menschen angeborenen Instrumente des Empfindens, zu unter[Pg 231]suchen. Diese Untersuchung hat hinsichtlich des Tastorganes zuerst Ernst Heinrich Weber unternommen. Das Tastorgan verschafft uns Druckempfindungen, Orts- und Temperaturempfindungen. Und wir wollen in der Kürze zeigen, wie Weber den Orts-, den Druck- und den Temperatursinn messend zu untersuchen gelehrt hat.
Der Ortssinn in der Haut beruht darauf, daß wir zwei Empfindungen, die im übrigen vollkommen gleich sind, als getrennte Empfindungen unterscheiden, wenn sie an verschiedenen, nicht zu sehr benachbarten Stellen der Haut erregt werden. Und zwar unterscheiden wir nicht nur die Stellen, an welchen auf unsere Haut eingewirkt wird, sondern wir haben auch das Vermögen, den Abstand dieser Stellen und die Richtung der Verbindungslinie ungefähr anzugeben. Hierauf gründete Weber sein Verfahren, den Ortssinn der Haut zu untersuchen. Er berührte bei der Versuchsperson, deren Augen geschlossen waren, gleichzeitig zwei Stellen der Haut mit zwei kleinen, gleichgestalteten Körpern und fragte die Person, ob ein oder zwei Körper die Haut berührten und ob, wenn letzteres der Fall, die Richtung der verbindenden Linie quer oder längs zum Körper verlaufe. Zu diesem Zwecke schliff Weber die Spitzen eines Zirkels so ab, daß sie nicht mehr stachen, sondern nur einen deutlichen Eindruck hervorbrachten. Sobald nämlich eine Berührung Schmerz hervorruft, wird die Beobachtung dadurch viel unvollkommener, weil der Schmerz nicht so lokal empfunden wird als eine Berührung, die keinen Schmerz verursacht. Indem Weber nun den Zirkel anfangs mehr, dann aber immer weniger öffnete, gelangte er schließlich zu derjenigen Entfernung der Zirkelspitzen, bei welcher die beiden Eindrücke als ein einziger Eindruck empfunden werden.
Die vergleichende Untersuchung der verschiedenen Teile der Haut ergab nun folgendes. Mit dem feinsten Tastsinne ausgerüstet zeigte sich die Zungenspitze. Ihre Fähigkeit, benachbarte Eindrücke noch getrennt wahrzunehmen, erwies sich 50mal so groß als die entsprechende Fähigkeit des Oberarms oder des Oberschenkels. Auf die Zungenspitze folgten in der Feinheit des Ortssinnes die Lippen und die Fingerspitzen, an denen der Ortssinn der Hände am stärksten entwickelt ist. Hinsichtlich der Handflächen ergab sich, daß die innere Fläche die Rückenfläche und auch die untere Fläche der Füße in der Schärfe des Ortssinnes bedeutend übertrifft. Am geringsten ist die Ausbildung dieses Sinnes am Rumpfe.
Ähnliche Verschiedenheiten wurden um jene Zeit von anderen Forschern auch für die Empfindlichkeit der verschiedenen Netzhautstellen nachgewiesen. Bekanntlich werden Gegenstände, die sich seitwärts von der Augenachse befinden, nur unvollkommen wahrgenommen, so daß man z. B. die ausgespreizten Finger der seitwärts gehaltenen Hand nicht mehr deutlich unterscheiden kann. Die Empfindlichkeit der Netzhaut suchte man336 dadurch zu bestimmen, daß man den Durchmesser des kleinsten Gegenstandes, den man noch wahrnehmen kann, für die einzelnen Teile der Netzhaut ermittelte. Dieser Durchmesser beträgt
im Zentrum | 0,0008 | Linien | |
5° | vom Zentrum | 0,0024 | " |
25° | " " | 0,0130 | " |
Der Gegenstand mußte also, um 5° vom Zentrum der Netzhaut entfernt durch diese wahrgenommen zu werden, einen dreimal so großen Durchmesser haben wie ein Gegenstand, dessen Bild in jenes Zentrum fällt.
Um die Empfindlichkeit des Tastorganes für Druckunterschiede zu bestimmen, legte Weber der Versuchsperson zwei verschiedene Gewichte von gleicher Gestalt und gleich großer Oberfläche wiederholt auf den nämlichen Teil der Hand und ließ den Beobachter darüber urteilen, welches von beiden Gewichten das schwerere sei. Eine Reihe von Versuchen bewies, daß man zwei Gewichte am genauesten vergleichen kann, wenn man sie nacheinander auf dieselben Teile der gleichen Hand legt. Es ergab sich, daß die meisten Menschen auch ohne vorausgehende längere Übung durch das Gemeingefühl der Muskeln zwei Gewichte noch unterscheiden können, wenn sie sich wie 39 : 40 verhalten.
Schaltete man das mit der Muskelanstrengung verbundene Gemeingefühl aus, indem man die Hand auf einem Tische ruhen ließ und sie dann in der erwähnten Weise den Gewichtsproben aussetzte, so ging die Feinheit in der Schätzung der Gewichte nur bis 29 : 30.
Eine Vergleichung endlich der Temperaturempfindungen der Haut stellte Weber in der Weise an, daß er dieselbe Hand bald in die eine, bald in die andere Vergleichsflüssigkeit hielt. Unter diesen Umständen konnte er bei großer Aufmerksamkeit noch[Pg 233] einen Temperaturunterschied von 1/5° der Réaumurschen Skala wahrnehmen.
Die Untersuchungen Webers sind die Grundlage für die durch Fechner begründete Psychophysik geworden337, eine Wissenschaft, die gesetzmäßige Beziehungen zwischen dem Physischen und dem Psychischen festzustellen sucht. Insbesondere war es Fechners »psychophysisches Grundgesetz«, das die Anregung zu zahlreichen wissenschaftlichen Arbeiten auf diesem Grenzgebiete zwischen der Philosophie und der Naturwissenschaft gegeben hat.
Die Versuche, die Schärfe unserer Sinne durch Messungen zu bestimmen, hatten Weber zu der Annahme geführt, daß die Unterschiede der Reize den absoluten Großen dieser Reize proportional zunehmen müssen, um als gleichgroß zu erscheinen. Bezeichnen z. B. r, r', r'' verschieden starke Reize eines Sinnesgebietes, so ist (r' - r)/r = (r'' - r')/r' = (r''' - r'')/r''...., wenn die Unterschiede r' - r, r'' - r', r''' - r''.... als gleich groß empfunden werden.
Dieses »Webersche Gesetz« wurde von Fechner dahin abgeändert, daß er die Empfindung nicht den Reizgrößen direkt proportional setzte, sondern sie logarithmisch mit den letzteren wachsen ließ. Eine der Voraussetzungen für dieses Gesetz war Fechners Gesetz vom Schwellenwerte der Empfindung. Es besagt, daß kein Reiz ein Bewußtseinsphänomen hervorzurufen vermag, wenn er nicht einen gewissen Grad der Stärke hat und damit die sogenannte Schwelle überschreitet. Dies vorausgeschickt, ließ sich das psychophysische Grundgesetz folgendermaßen formulieren:
E = c . log(r/ρ).
In dieser Formel bedeutet E die Empfindung, r den Reiz, ρ die Größe des eben noch merklichen Reizes und c eine von anderen Umständen abhängende Konstante.
Der weitere Ausbau der experimentellen Psychologie erfolgte durch Helmholtz und insbesondere durch Wundt338, der 1875 das erste psychophysische Institut (in Leipzig) ins Leben rief. Die Aufgabe der psychophysischen Forschung wurde durch Wundt dahin präzisiert, daß sie den »Inhalt des Bewußtseins in seine Elemente zu zerlegen, diese Elemente nach ihren qualitativen und[Pg 234] quantitativen Eigenschaften kennen zu lernen und die Verhältnisse der Existenz und der Aufeinanderfolge derselben in exakter Weise zu ermitteln« habe.
Einen wertvollen Beitrag zur Psychophysik bildet Herings kleine Schrift »Über das Gedächtnis als eine allgemeine Funktion der organisierten Materie«339. Ist die gegenseitige Abhängigkeit zwischen Geistigem und Materiellem eine gesetzmäßige, so ist damit, wie Hering näher ausführt, das Band gefunden, welches die Physiologie mit der Psychologie zu einem Ganzen verbindet. Die Phänomene des Bewußtseins und die materiellen Veränderungen der organischen Substanz erscheinen dann als zwei Veränderliche, die infolge einer gesetzmäßigen Verknüpfung wie die veränderlichen Größen einer mathematischen Funktion voneinander abhängen. Erst mit Hilfe dieser Hypothese von dem funktionellen Zusammenhange des Geistigen mit dem Materiellen ist die heutige Physiologie imstande, die Erscheinungen des Bewußtseins mit Erfolg in den Kreis ihrer Untersuchungen zu ziehen, ohne den sicheren Boden der naturwissenschaftlichen Untersuchung zu verlassen.
Indem Hering den Begriff Gedächtnis auch auf alle nicht-gewollten Reproduktionen ausdehnt, erscheint ihm das Gedächtnis als ein Urvermögen aller organisierten Materie. Neben dem individuellen gibt es auch ein phylogenetisches Gedächtnis. Von diesem Standpunkte aus erscheint die ganze individuelle Entwicklung eines Lebewesens als eine fortlaufende Kette von Erinnerungen an die Entwicklung jener großen Kette, deren Endglied jenes Einzelwesen bildet. Auch der tierische Instinkt erscheint unter diesem Gesichtswinkel in einem wesentlich neuen Lichte. Das Tier gilt nicht mehr als eine blinde Maschine, sondern, wenn sich sein Verhalten so trefflich und scheinbar ganz von selbst dem Zweck entsprechend regelt, so ist dies dem angeerbten Inhalt des Gedächtnisses seiner Nervensubstanz zu verdanken. Hat doch die Spinne ihre Kunst nicht selbst gelernt, sondern zahllose Generationen dieser Gattung haben sie langsam von Stufe zu Stufe erworben.
Die Erforschung der mit der Nerventätigkeit in einem engen Zusammenhange stehenden tierischen Elektrizität wurde von neuem[Pg 235] durch die Untersuchungen am Zitteraal angeregt. Das eigentümliche Verhalten dieses Tieres wurde besonders von Faraday genauer untersucht340. Faraday benutzte sattelförmig gebogene Kupferplatten, die eine gewisse Strecke des Fisches einschlossen. Von diesen Platten oder Kollektoren, wie er sie nannte, führten Drähte nach den Apparaten, an denen elektrische Wirkungen hervorgerufen werden sollten. Wurde z. B. der eine Kollektor auf den vorderen, der andere auf den hinteren Teil des Zitteraals gesetzt, so wurde das mit den Drähten verbundene Galvanometer jedesmal, wenn das Tier einen Schlag gab, um 30-40° abgelenkt. Die Ablenkung ließ erkennen, daß der Strom stets von dem vorderen Teile des Körpers durch das Galvanometer nach dem hinteren Teile ging. Brachte Faraday an Stelle des Galvanometers eine mit Kupferdraht umwickelte Federpose, in die er eine Stahlnadel legte, so wurde diese Nadel magnetisiert. Auch chemische Zersetzungen, z. B. von Jodkalium, vermochte Faraday mit der Elektrizität des Tieres hervorzurufen.
Daß das elektrische Organ des Zitteraals und des Zitterrochens zu dem Nervensystem in anatomischer Beziehung steht, war schon lange bekannt341. Offenbar hatte es nach den Versuchen Faradays den Anschein, als ob Nerventätigkeit in Elektrizität umgesetzt werden kann, wie sich die letztere in Wärme, Magnetismus und andere Naturkräfte verwandeln läßt. Um so dringender erhob sich die Frage, worin die Nerventätigkeit selbst besteht, und ob etwa das Agens, das in dem Nervensystem seinen Sitz hat, mit einer der in der leblosen Natur wirkenden Kräfte zu identifizieren sei. Die ersten erfolgreichen Schritte zur Beantwortung dieser Frage unternahm der deutsche Physiologe Du Bois-Reymond.
Emil Du Bois-Reymond wurde 1818 in Berlin geboren und durch Johannes Müller der Anatomie und der Physiologie zugeführt. Seine wissenschaftliche Lebensaufgabe erblickte Du Bois-Reymond in der Erforschung der tierischen Elektrizität. Du Bois-Reymonds Untersuchungen über diesen Gegenstand begannen im Jahre 1841. Ihre wichtigsten Ergebnisse wurden in mehreren größeren Werken zusammengefaßt342. In den weitesten Kreisen ist[Pg 236] Du Bois-Reymond durch seine Reden bekannt geworden343. Er starb in Berlin im Jahre 1896.
Du Bois-Reymonds Erfolge auf dem Gebiete der Nerven- und Muskelphysiologie sind vor allem darauf zurückzuführen, daß er einer der ersten Physiologen war, welcher die neuere Physik und das ganze Rüstzeug des modernen Physikers vollkommen beherrschte. Als solcher verstand er es, die Fehlerquellen zu vermeiden oder gehörig in Rechnung zu ziehen, sowie seinen Messungen den größtmöglichen Grad von Genauigkeit zu geben. Bei der Untersuchung der elektrischen Vorgänge, die sich innerhalb der Nerven und Muskeln abspielen, bediente er sich eines Multiplikators von nahezu 5000 Windungen und eines Nadelpaares von höchster Empfindlichkeit. Seine Untersuchungen führten zur Entdeckung des Nervenstroms, des Muskelstroms und ihrer Schwankungen.
Die Lehre von der Lebenskraft, der Johannes Müller bis zu seinem Ende treu geblieben war, unterwarf Du Bois-Reymond einer vernichtenden Kritik. In seiner oft dichterischen Sprache kennzeichnete er seine Ansicht über die belebte Materie durch die Worte: »Ein Eisenteilchen ist und bleibt dasselbe Ding, gleichviel ob es im Meteoriten den Weltkreis durchfliegt, im Dampfwagenrade auf den Schienen dahinschmettert, oder in einer Blutzelle durch die Schläfe eines Dichters rinnt.«
Der große Aufschwung, den die Mikroskopie seit der Herstellung achromatischer Linsensysteme erfahren hatte, kam in gleicher Weise der Zoologie wie der Botanik zugute. Auch auf zoologischem Gebiete wurde man jetzt in den Stand gesetzt, erfolgreich in den feineren Bau der niedersten Lebewesen einzudringen und dadurch für die physiologische Deutung der Lebensvorgänge die unentbehrliche anatomische Grundlage zu gewinnen. Die neu gewonnenen Aufschlüsse betrafen vor allem das Gebiet der einzelligen Organismen und das Wesen des Protoplasmas, des eigentlichen Leibes der Zelle.
Während Ehrenberg344 die Infusorien, um deren systematische Bearbeitung er sich das größte Verdienst erwarb, als hochorganisierte Wesen ansah und andere Forscher die Foraminiferen ihrer[Pg 237] eigentümlichen Schalenbildung wegen mit den viel höher stehenden Kopffüßlern vereinigten, unter denen bekanntlich der Nautilus und die fossilen Ammoniten gleichfalls aus Kammern bestehende Schalen besitzen, trat seit 1840 etwa in der Auffassung dieser Geschöpfe eine bemerkenswerte Wandlung ein, die zur Aufstellung des Typus der Protozoen führte. Die Infusorien und die Foraminiferen wurden nämlich gleich einigen verwandten Gruppen als einzellige Lebewesen erkannt, deren Körper innerhalb der verschieden gestalteten Wandung nur aus einer gleichartigen, sich bewegenden Masse, dem Protoplasma, besteht.
Cuviers Kreis der Radiärtiere, dem man bisher die Infusorien zugewiesen hatte, mußte noch eine weitere Aufteilung über sich ergehen lassen, indem der deutsche Zoologe Leuckart die erste und die dritte Klasse dieses Kreises, die Stachelhäuter und die Pflanzentiere, trotz ihres strahligen Körperbaues als gesonderte Typen hinstellte. Für die Stachelhäuter wurde der Besitz eines Gefäßsystems und das Vorhandensein eines Darmes als charakteristisch erkannt, während man bemerkte, daß bei den Pflanzentieren oder Cölenteraten eine so weitgehende Trennung der Verrichtungen noch nicht stattgefunden hat, sondern daß ein einziger Hohlraum, der aus diesem Grunde als Gastrovaskularraum bezeichnet wird, die Verdauung und den Kreislauf vermittelt.
Wie auf botanischem, so wurde auch auf zoologischem Gebiete die Einsicht in die Verwandtschaft der niederen Formen in hohem Grade durch den Ausbau der Entwicklungsgeschichte gefördert. Die Befunde der letzteren wiesen z. B. den bis in die neuere Zeit bald zu den Pflanzen gerechneten, bald als Tierstöcke betrachteten Schwämmen ihren Platz neben den Polypen und den Quallen innerhalb des Kreises der Pflanzentiere an.
Das Studium der niederen Tiere machte auch mit dem zuerst als etwas ganz Paradoxes erscheinenden, später in seiner Bedeutung und in seiner großen Verbreitung erkannten Vorgang des Generationswechsels bekannt. Die erste ausführliche Abhandlung345 »Über den Generationswechsel« verdanken wir dem Dänen Steenstrup (geboren in Kopenhagen 1813). Generationswechsel nennt man seit Steenstrup »die merkwürdige Erscheinung, daß ein[Pg 238] Tier eine Brut erzeugt, die nicht dem Muttertiere ähnlich ist oder wird, sondern diesem unähnlich ist und selbst eine Brut hervorbringt, die zur Form des Muttertieres zurückkehrt. Es findet also ein Muttertier nicht in seiner eigenen Brut, sondern erst in seinen Nachkommen der zweiten, ja mitunter erst der dritten Generation seinesgleichen wieder.«
Die erste Beobachtung dieser Art hatte im 18. Jahrhundert Bonnet gemacht. Sie betraf die Parthenogenese der Blattläuse. Bonnet hatte gefunden und spätere Beobachter hatten es bestätigt, daß im Frühling aus den Eiern der Blattläuse eine Generation hervorgeht, die ohne vorhergehende Befruchtung eine neue Generation erzeugt. Diese Jungfernzeugung oder Parthenogenese wiederholt sich, wie schon die ersten Beobachter erkannten, mehrere Male. Endlich kommt immer eine aus geflügelten Männchen und ungeflügelten Weibchen bestehende Generation. Es findet Befruchtung und die Ablage von Eiern statt, worauf im folgenden Jahre die Reihe der parthenogenetischen Zeugungen von neuem beginnt.
Die nächste derartige Beobachtung machte der als Dichter mehr denn als Zoologe bekannte Chamisso während seiner Weltumsegelung mit dem von der russischen Regierung ausgesandten Schiffe Rurik im Jahre 1819. Es hatte schon lange die Aufmerksamkeit der Seefahrer erregt, daß bei den Salpen oft eine Menge von Individuen (20, 40 und mehr) zu langen Ketten vereinigt vorkommen, während andere Salpen, die mitunter noch die Spuren eines früheren Zusammenhanges aufweisen, als Einzelwesen umherschwimmen. Chamisso346 machte nun an diesen zylindrischen, durchsichtigen Salpen die überraschende Beobachtung, daß eines dieser Tiere durch Sprossung, also auf ungeschlechtlichem Wege, eine Kette kleinerer Individuen erzeugt, aus denen durch geschlechtliche Fortpflanzung wieder die Einzelsalpe hervorgeht. Ähnliche Vorgänge beschrieb dann Sars (geboren 1805 in Berlin, war Pfarrer in der Nähe von Bergen und wurde in Anerkennung seiner dort betriebenen zoologischen Untersuchungen zum Professor der Zoologie in Christiania ernannt). Sars lehrte 1829 die Strobilaform der Polypen und den Zusammenhang dieser durch Teilung (Strobilation) sich[Pg 239] vermehrenden Form mit den frei umherschwimmenden Medusen kennen. Diesen Vorgang finden wir auf der ersten Tafel des von Steenstrup herausgegebenen Werkes über den Generationswechsel dargestellt. Die von Sars herrührenden Zeichnungen sind zum Teil in manche Lehrbücher übergegangen; sie mögen hier in ihrer Vollständigkeit Platz finden (s. Abb. 36).
Fig. 1-5 zeigt die aus dem befruchteten Ei der Meduse hervorgegangene, einem Aufgußtierchen ähnliche, frei umherschwimmende Flimmerlarve. Diese setzt sich fest (6 und 7), verliert ihre überflüssig gewordenen Bewegungsorgane, entwickelt dafür aber am[Pg 240] oberen Ende einen Kranz von Tentakeln. Mitunter sitzen an den entwickelten, kleinere durch Knospung entstandene Individuen (18).
Die Figuren 20-30 zeigen die Entwicklung der zweiten Generation. Zunächst bildet sich eine Furche (Fig. 20), dann entstehen unter Heranwachsen des Tieres zu einem Tierstock mehrere Querrunzeln (21). Schließlich findet eine völlige Querteilung (22) und Trennung (23) der Medusenlarven statt. Fig. 25 zeigt eine freie Medusenlarve nach ihrer Loslösung in natürlicher Größe. Die Figuren 26-29 zeigen die weitere Entwicklung, und in Fig. 30 haben wir ein völlig entwickeltes, mit 4 Mundarmen und einem Kranz von Randtentakeln versehenes Individuum.
Wir haben bei diesem Vorgang etwas länger verweilt, weil wir in ihm eine der schönsten und frühesten Studien über einen vollständig aufgehellten Entwicklungsvorgang aus dem Kreise der niederen Tiere besitzen, eine Studie, die für spätere Untersuchungen auf diesem so schwierigen Gebiete anregend und mustergültig gewesen ist. Vor allem ist Steenstrups Abhandlung auch deshalb wertvoll, weil sie zeigt, wie eine Fülle vereinzelt stehender Tatsachen durch denkende Betrachtung und Aufstellung neuer Begriffe dem Verständnis näher gebracht werden kann. Allerdings macht sich bei dieser Art der Betrachtung die Subjektivität des Forschers mehr als bei der rein empirischen Feststellung von Tatsachen geltend. Dennoch kann nur durch Verallgemeinern, durch Herausschälen neuer Begriffe und Gesamteindrücke der, wie Steenstrup sich drastisch ausdrückt, mit roher Nahrung, d. h. vereinzelt dastehenden Tatsachen oft bis zur Dyspepsie überfüllten Wissenschaft geholfen werden.
Steenstrup dehnte die Untersuchung über den Generationswechsel (die Metagenese) auch auf den Kreis der Würmer, insbesondere auf die Eingeweidewürmer, aus. Die Reihe der Wirbeltiere, bemerkt er in seiner Schlußbetrachtung, ist die einzige, in der sich der Generationswechsel noch nicht hat nachweisen lassen. Für die niederen Tiere ist der Generationswechsel nach seinen Untersuchungen nicht mehr etwas Vereinzeltes, wie es anfangs schien, sondern es hat sich hier das Goethesche Wort bestätigt: Die Natur geht ihren Gang, und was uns als Ausnahme erscheint, ist Regel.
Steenstrup wies für den Generationswechsel nicht nur eine weit größere Häufigkeit, als man nach den ersten Entdeckungen auf diesem Gebiete ahnen konnte, sondern auch die Naturnotwendig[Pg 241]keit nach, indem er den Generationswechsel als eine besondere, durch die Umstände bedingte Art der Brutpflege betrachtete. Ganze Tiergruppen kamen ferner nach diesen Feststellungen in Fortfall, weil man sie als unentwickelte Formen erkannte, die sich zu der vollkommenen Art verhalten wie die Arbeiterinnen der Ameisen und der Bienen zu den das Zeugungsgeschäft besorgenden Weibchen und Männchen. In anderen Fällen erkannte man, daß mehrere Formen, die man bisher als verschiedene Arten betrachtet hatte, nur Entwicklungsstufen eines und desselben Tieres sind. Das schönste Beispiel hierfür boten die Medusen- und die Strobilaform von Sars. Nach Steenstrup ist der Generationswechsel keineswegs auf die Tierwelt beschränkt, er findet vielmehr sein Analogon in der Entwicklung der Pflanze, ja er ist vielleicht ihr ganz besonders eigentümlich und, wenn er uns im Tierreich begegnet, nur eine Funktion des vegetativen Lebens. Nach Steenstrups Auffassung ist nämlich der Baum eine nach einem vegetativen Grundgesetz geordnete Kolonie von Individuen. Die Folge von Generationen, welche diese Kolonie zusammensetzen, findet ihren Abschluß in den Staub- und den Fruchtblättern. Letztere bringen den Samen hervor, der wieder dieselbe Bahn durchläuft.
Ganz an die neuere Entwicklungslehre anklingend lauten die Worte Steenstrups, daß der Generationswechsel etwas weniger Vollkommenes sei, das an dem Tierleben hängen geblieben, als dieses sich über das Pflanzenleben emporgehoben habe. Ein solcher Ausspruch aus dem Munde Steenstrups ist nicht als etwas nur bildlich Gemeintes zu verstehen, sondern ein deutlicher Hinweis auf den Jahrzehnte später durch Darwin zu neuem Leben erweckten Transformismus. Was diese durch Lamarck und durch Darwin begründete Lehre für die biologischen Wissenschaften bedeutet, soll der Gegenstand des nächsten Abschnitts unserer Darstellung sein.
Den zuletzt geschilderten entwicklungsgeschichtlichen Untersuchungen gebührt nicht nur das Verdienst, daß sie eine festere Begründung des natürlichen Systems der Pflanzen und der Tiere ermöglichten, sie haben den Blick auch über das Werden des Einzelwesens hinaus auf die Frage nach der Entstehung der Art, ja des gesamten so mannigfach gegliederten Systemes selbst gelenkt.
Schon im 18. Jahrhundert machte sich gegen den starren Artbegriff, der Linné bei dem Ausbau seines Systems geleitet hatte, Einspruch geltend. Dem Gedanken Linnés, daß so viel Arten vorhanden seien, als Gott im Anbeginn geschaffen habe, stellte Buffon die Ansicht gegenüber, daß das System eine vom Menschen geschaffene Abstraktion sei347. In der Natur gibt es nach ihm nur Individuen und das, was wir Arten, Gattungen, Ordnungen und Klassen nennen, sind eben nichts weiter als Begriffe, die der Mensch geschaffen. Diese Auffassung Buffons stand zu der im 18. Jahrhundert herrschenden Systematik im schroffsten Widerspruche. Seine Bemerkungen über das Wesen der Art und des Systems wurden daher von den meisten Zeitgenossen nur als geistreiche Einfälle betrachtet.
Eine Weiterbildung erfuhren die Gedanken Buffons vor allem durch St. Hilaire und Lamarck, doch vermochten die Bemühungen dieser Männer gegenüber der Autorität eines Cuvier348, nach dessen Ansicht die Fauna und die Flora einer jeden geologischen Periode neu erschaffen sein sollte, nicht Stand zu halten.
St. Hilaire349 bekämpfte mit großer Entschiedenheit die Ansicht, daß die Arten geschaffen seien und sich unverändert erhalten[Pg 243] hätten. Nach ihm waren sie steten, langsamen Änderungen unterworfen, deren Ursache er in dem Wechsel der Lebensbedingungen erblickte. Beispielsweise sollten die Vögel aus den Eidechsen infolge der allmählichen Verminderung des Kohlendioxydgehalts der Luft und ihrer Anreicherung mit Sauerstoff entstanden sein.
Diese infolge der Ablagerung der Steinkohle eingetretene Änderung der Atmosphäre hat nach St. Hilaire die bei den Vögeln beobachtete höhere Bluttemperatur und kräftigere Muskeltätigkeit zur Folge gehabt. Um seine Ansicht zu bekräftigen, bemühte sich St. Hilaire, den Einfluß der Lebensbedingungen durch Versuche nachzuweisen. So gelang es beispielsweise, permanente Larven des Wassersalamanders zu erhalten.
Während St. Hilaire die Ursache der Artenbildung in den Änderungen der Umwelt erblickte, erklärte der gleichfalls durch Buffons Spekulationen angeregte Lamarck350 die Entstehung neuer Arten ebenso einseitig aus dem Gebrauch und Nichtgebrauch der Organe, also aus dem Verhalten des Organismus selbst. Durch den Gebrauch eines Organes wird sein Wachstum gefördert, durch den Nichtgebrauch verkümmert es. Genügend lange Zeiträume, eine gewisse Variabilität der Formen, Veränderung der Gewohnheiten, der äußeren Einflüsse und die Vererbung geringer erworbener Abänderungen: Das sind nach Lamarck351 diejenigen Faktoren, die in erster Linie das Entstehen neuer Formen aus den vorausgegangenen bewirkt haben. Die Form ist also nicht etwa ursprünglich auf die Lebensweise eingerichtet. Es verhält sich vielmehr gerade umgekehrt, indem die Form erst infolge der Anforderungen, welche die Umwelt an die Organismen stellt, entstanden ist. Dies Entstehen ist nach Lamarck auf eine nach mechanischen Prinzipien wirkende Reaktion des Organismus gegenüber den Einflüssen der Außenwelt zurückzuführen. Recht klar kommt diese Auffassung in folgenden Worten zum Ausdruck: »Nicht die Form des Körpers oder seiner Teile bestimmt die Gewohnheiten und die Lebensweise des Tieres,[Pg 244] sondern es sind im Gegenteil die Gewohnheiten, die Lebensweise und alle anderen einwirkenden Umstände, die mit der Zeit die Form des Körpers und seiner Organe gebildet haben. Mit neuen Formen wurden dann neue Fähigkeiten erlangt. Auf diese Weise hat die Natur die Lebewelt so gestaltet, wie wir sie heute erblicken352.«
Sämtliche Arten sind nach Lamarck also wirklich miteinander verwandt. Eine solche Blutsverwandtschaft läßt sich nicht als eine von der niedrigsten Form zur höchsten fortschreitende Reihe, sondern nur nach dem Muster eines Stammbaumes darstellen. Lamarck war der erste, der sich dieser Art der natürlichen Anordnung der Organismen bediente. Die niedrigsten Tiere und Pflanzen sind nach Lamarck durch Urzeugung entstanden. Die Entwicklung der höheren Tierformen setzte an zwei Punkten ein, nämlich bei den Infusorien und bei den Würmern. Einen Beweis für seine Lehren erblickte Lamarck in den Übergangsformen, die von den fossilen Arten eines Kreises mitunter zu den lebenden hinüberführen. Sehr deutlich ließ sich dieser Übergang, wie Lamarck nachwies, z. B. bei den Mollusken erkennen.
An Beispielen dafür, wie der Gebrauch der Organe die Entwicklung einer Form bestimmt hat, ist in Lamarcks Werken kein Mangel. Erwähnt sei z. B., daß sich die Schwimmhäute durch die Anpassung an das Leben im Wasser entwickelt haben sollen. Die lange Zunge der Spechte oder des Ameisenfressers wurde auf die Art der Nahrungsaufnahme zurückgeführt. Die ausgedehnte Lunge der Vögel und die damit in Verbindung stehende erhöhte Atmungsfähigkeit faßte Lamarck als eine Anpassung an die Bedingungen des Vogelfluges auf, während St. Hilaire, wie schon erwähnt, Änderungen in der Beschaffenheit der Atmosphäre als die Ursache für den Übergang gewisser Tierformen vom Land- zum Luftleben betrachtete.
Der Gedanke, daß die Arten nicht konstant, sondern durch allmähliche Umbildung aus älteren Formen hervorgegangen seien, wurde, wie aus dem Gesagten hervorgeht, von Lamarck mit voller Klarheit entwickelt und mit vielen Gründen belegt. Doch waren die von ihm hervorgehobenen Momente nicht ausreichend, um die Zeitgenossen zu überzeugen. Den meisten unter ihnen galt der Mann, der als der eigentliche Begründer der Deszendenz[Pg 245]theorie bezeichnet werden muß, als ein Phantast353. Manche seiner Ansichten, wie z. B. diejenige, daß der lange Hals der Giraffe von dem beständigen Hinaufrecken nach dem Laube der Bäume herrühre, wurden geradezu verspottet. Dennoch blieb das Problem, den Grund für die Verwandtschaft und die während der geologischen Entwicklung bewahrte Kontinuität der Lebewelt zu finden, nachdem es einmal aufgeworfen, die Triebfeder, die zu fortgesetzter Spekulation und Beobachtung angeregt und endlich zu einer insofern wenigstens befriedigenden Lösung geführt hat, als der Transformismus den meisten heute nicht mehr eine unsichere Hypothese, sondern eine festbegründete Theorie ist.
Etwa zur selben Zeit als Lamarck seine Lehre entwickelte äußerte auch der Deutsche Blumenbach, dem wir die Einteilung des Menschengeschlechts in fünf Hauptrassen verdanken, Zweifel an der Lehre von der Konstanz der Arten. Blumenbach ging von einigen geschichtlich beglaubigten Fällen des gänzlichen Verschwindens einer Art aus. Er bemerkt dazu, es sei mehr als wahrscheinlich, daß nicht die eine oder die andere Art, sondern die ganze, vor dem Auftreten des Menschen vorhanden gewesene Schöpfung untergegangen sei354. Einen Beweis dafür erblickte er besonders in den hunderten von fossilen Ammonitenarten, von denen man in der heutigen Schöpfung kein lebendes Exemplar mehr findet.
Blumenbach ist zwar geneigt, in der Entwicklung der organischen Welt Katastrophen anzunehmen, nach deren Beendigung die Natur neue organische Bildungen hervorgebracht habe. Er ist aber andererseits auch nicht abgeneigt, das Aussterben von Arten und die Entstehung neuer Arten aus einer »Veränderlichkeit oder Unbeständigkeit der Natur« zu erklären. Zu den auffallendsten Beweisen für eine solche Veränderlichkeit rechnet Blumenbach die Entstehung von Spielarten. Um die Mitte des 16. Jahrhunderts habe man z. B. keine andere Tulpe in Europa gekannt als die gemeine gelbe Stammart. Und keine 200 Jahre später habe ein Liebhaber dieser Pflanze 3000 verschiedene Spielarten zusammenbringen können355.
Die wichtigsten Ursachen der Abänderung erblickte Blumenbach im Klima, in der Nahrung und in der Lebensweise. Durch Wanderungen der Organismen könnten diese Einflüsse sich ändern, und »so habe es gar nichts gegen sich, daß in der Gesamtflora und Fauna Gattungen aussterben und neue entstehen.«
Die Lehre von einer allmählichen Entwicklung der Lebewelt hatte, noch bevor Darwin mit seiner Theorie hervortrat, auch durch die vergleichende und vor allem durch die genetische Untersuchung der lebenden Formen eine wichtige Grundlage erhalten. Es geschah dies besonders durch die von Nägeli ins Leben gerufene und von Hofmeister mit dem größten Erfolge angewandte entwicklungsgeschichtliche Methode. Sie besteht darin, die Entstehung des Einzelwesens aus dem Ei oder der Spore in seinem Aufbau von Zelle zu Zelle mit dem Mikroskop zu verfolgen und alle Stadien der Entwicklung auf Zellteilungen und die Anordnung der entstandenen Elemente zurückzuführen. Nur auf diesem Wege war es möglich, in die verwandtschaftlichen Beziehungen (Verwandtschaft hier zunächst im älteren, bildlichen Sinne verstanden) der niederen zu den höheren Formen einzudringen. Den Nachweis, daß eine solche Verwandtschaft z. B. die früher als etwas ganz Getrenntes betrachteten Gruppen der Moose, Farne, Schachtelhalme, Koniferen und Blütenpflanzen verbindet, führte Hofmeister. Dieser Nachweis ist das Hauptergebnis seiner »Vergleichenden Untersuchungen über die Keimung der höheren Kryptogamen und die Samenbildung der Koniferen«356.
Der gemeinsame Grundzug, der nach Hofmeisters Befunden die großen Gruppen des Pflanzenreiches beherrscht, besteht in dem periodischen Wechsel zwischen einer geschlechtlichen und einer ungeschlechtlichen Generation. Die gleiche Erscheinung hatten[Pg 247] die Untersuchungen über die Fortpflanzung mehrerer Klassen der niederen Tiere kennen gelehrt357. Die eigentliche Bedeutung des Generationswechsels ist zwar dunkel geblieben. Daß sich aber in ihm eins der wichtigsten Entwicklungsgesetze ausspricht, hat der weitere Gang der Forschung immer deutlicher erkennen lassen.
Die Erscheinung des Generationswechsels wurde durch Hofmeister zunächst an den niedrigsten Moosen, den als flache Scheiben dem Boden anliegenden Lebermoosen verfolgt. Die Lebermoose bilden weibliche und männliche Fortpflanzungsorgane. In dem weiblichen Organ, dem Archegonium (Abb. 37), entwickelt sich die ruhende Eizelle. Das männliche Organ (Antheridium) bildet die Spermatozoiden, welche ausschwärmen und sich mit der Eizelle vereinigen. Infolge dieses Befruchtungsvorganges teilt sich die Eizelle (Abb. 37) und wächst unter fortgesetzter Zellteilung zu einem die neue Generation vorstellenden Gebilde (cc in Abb. 38) aus. In diesem Gebilde entstehen auf ungeschlechtlichem Wege die Moossporen. Es führt daher den Namen Sporogonium. Aus den Sporen entwickelt sich wieder der flache Thallus des Lebermooses.
[Pg 248] Die Laubmoose zeigen das gleiche Verhalten. Auch bei ihnen entsteht aus der Spore die Moospflanze, an der sich die Archegonien und die Antheridien entwickeln. Aus der befruchteten Eizelle entsteht als zweite Generation die bekannte, mitunter auf einem fünf bis zehn Zentimeter langen Stiele sitzende Sporenkapsel. Ihr entspricht bei dem Farnkraut der Wurzelstock und die besonders in die Augen fallenden, Sporen tragenden Blätter. Die aus den Sporen des Farnkrauts oder des Schachtelhalms entstehende, geschlechtlich sich vermehrende Generation ist auf ein zartes flaches Pflänzchen, den Vorkeim, reduziert, an dem sich wieder Archegonien und Antheridien bilden.
Die Untersuchung der Keimungsvorgänge der Blütenpflanzen und einiger den Übergang von den Kryptogamen zu den Blütenpflanzen bildender Formen ließ erkennen, daß der Vorkeim immer mehr zurücktritt. In der noch den Farnen zugerechneten Selaginella z. B. entwickelt er sich innerhalb der Haut der Spore. Bei den Koniferen ist ein innerhalb der Eizelle vor der Befruchtung entstehendes Gewebe, das Endosperm, als das Analogon des Vorkeims zu betrachten. Bei den Phanerogamen endlich finden sich nur noch gewisse Andeutungen und Spuren des die niederen Formen beherrschenden Entwicklungsgesetzes.
Eine solch klare, verwandtschaftliche Beziehung, wie sie Hofmeister für die großen Gruppen des Pflanzenreiches nachgewiesen, hatten die morphologischen Untersuchungen der Zoologen noch nicht erkennen lassen. Den scharf getrennten Typen oder Bauplänen Cuviers waren vielmehr neue gesonderte Gruppen mit morphologisch stark voneinander abweichenden Merkmalen zur Seite getreten. So hatte man Cuviers Strahltiere in die einen Darm besitzenden Stachelhäuter (Seeigel, Seesterne) und die darmlosen Coelenteraten (Seerosen, Quallen) gesondert358.
Auch in dem Kreise der Würmer und der Weichtiere traten beim näheren Studium mehr Abweichungen innerhalb des von diesen Kreisen umschlossenen Formenreichtums als verwandtschaftliche Züge hervor. Daß solche dennoch vorhanden und imstande sind, die Kluft zwischen den großen Typen zu überbrücken, ließen die embryologischen Forschungen mutmaßen. Schon von Baer359,[Pg 249] der in den ersten Jahrzehnten des 19. Jahrhunderts die moderne Embryologie ins Leben rief, glaubte in dem Primitivstreifen der Gliedertiere und der Wirbeltiere einen Hinweis auf eine gewisse, wenn auch sehr weit entfernte Verwandtschaft dieser Gruppen erblicken zu dürfen. In einem kurzen Momente der Entwicklung findet nach ihm eine Übereinstimmung zwischen den Wirbeltieren und den wirbellosen Tieren statt. »Je weiter wir in der Entwicklung zurückgehen«, sagt von Baer, »desto mehr finden wir auch bei sehr verschiedenen Tieren eine Übereinstimmung. Wir werden hierdurch zu der Frage geführt, ob nicht im Beginne der Entwicklung alle Tiere im wesentlichen sich gleich sind, und ob nicht für alle eine gemeinsame Urform besteht«. Da der Keim das unvollkommene Tier vorstelle, so könne man nicht ohne Grund behaupten, daß die einfache Blasenform die gemeinschaftliche Grundform sei, aus der sich alle Tiere nicht nur der Idee nach, sondern historisch entwickelt hätten.
Auch der Umstand, daß aus der Eizelle sowohl bei den niederen als auch bei den höheren Tieren nach einer Reihe von Zellteilungen zunächst zwei Schichten oder Keimblätter hervorgehen, wurde schon seit den vierziger Jahren des 19. Jahrhunderts als ein allgemeines Gesetz dargetan. Huxley erkannte (1849), daß die Entwicklung bei den Pflanzentieren kaum über dieses von Häckel später als Gastrula bezeichnete Stadium hinausgeht. (Siehe den in Abb. 39 dargestellten Schnitt durch den Süßwasserpolypen.) Die aus zwei Schichten gebildete Gastrula wurde von Kowalevsky als das Jugendstadium des einfachsten Wirbeltieres, des Amphioxus lanceolatus, nachgewiesen360.
Kowalevsky suchte durch seine über das gesamte Tierreich ausgedehnten embryologischen Untersuchungen die schon von[Pg 250] Huxley ausgesprochene Vermutung zu bestätigen, daß das innere und das äußere Keimblatt (das Entoderm und das Ektoderm) der in allen Tierkreisen – die einzelligen Urtiere selbstverständlich ausgenommen – auftretenden Gastrula homologe Bildungen seien. Im Sinne der von Kowalevsky begründeten und von Haeckel nach der phylogenetischen Seite ausgebauten Keimblätterlehre entsprechen also die aus der Keimscheibe des Wirbeltieres entstehenden Zellschichten den in Abb. 40 dargestellten Keimblättern des Amphioxus und denjenigen, welche die Pflanzentiere, sowie die ersten Entwicklungsstadien der Stachelhäuter, der Würmer, der Insekten und der Mollusken aufweisen361.
Für die Einheit des Tierreichs und gegen eine scharfe Gliederung nach bestimmten Bauplänen, wie sie Cuvier gelehrt hatte, sprach auch die Entdeckung zahlreicher Übergangsformen. Auf das sonderbare, als Schnabeltier bezeichnete Säugetier, das nicht nur Eier legt, sondern auch einige Merkmale des Vogelkörpers aufweist, hatte schon Lamarck hingewiesen. Eine Übergangsform, die zwischen dem Vogel und dem Reptil steht, entdeckten die Paläontologen in dem Archaeopteryx oder Urvogel.
Die im Vorstehenden geschilderten, neuen Anschauungen konnten erst Wurzel fassen und die biologischen Wissenschaften umgestalten, als man ganz allgemein mit dem tief eingewurzelten Dogma von der Konstanz der Arten brach und deren allmähliche Entstehung aus früheren Formen annahm, dergestalt, daß alle Organismen in höherem oder geringerem Grade blutsverwandt seien. Dann erst vermochte sich diese als Deszendenztheorie bezeichnete Lehre Bahn zu brechen. Vorher fehlte es ihr an einer genügenden wissenschaftlichen Begründung. Auch waren die einzelnen naturgeschichtlichen Wissens[Pg 251]zweige noch nicht auf dem Standpunkte angelangt, daß sie dieser Theorie schon bedurft hätten. Dieser Fall trat gegen die Mitte des 19. Jahrhunderts ein. Die Geologie hatte das Dogma von den wiederholten Neuschöpfungen verlassen, die Ergebnisse der Paläontologie wiesen auf eine allmähliche Annäherung der untergegangenen Formenkreise an unsere heutige Lebewelt hin, und die morphologischen und entwicklungsgeschichtlichen Befunde ließen sich mit dem Dogma von der Konstanz der Arten nicht länger vereinigen. Trotzdem war die Herrschaft dieses Dogmas eine solch allgemeine, daß sich zunächst nur vereinzelte Stimmen dagegen erhoben, die außerdem verhallen mußten, solange man nichts Besseres an die Stelle der älteren Anschauungen zu setzen vermochte. Die Frage nach der Entstehung der Arten blieb das »Mysterium der Mysterien«, bis im Jahre 1859 Charles Darwin362 Licht über sie verbreitete.
Charles Robert Darwin wurde am 12. Februar 1809 in Shrewsbury geboren. Seine Neigung zu den Naturwissenschaften, in der er dem Großvater Erasmus glich, zeigte sich schon in den Knabenjahren. Charles Darwin studierte in Cambridge, wo er sich besonders mit Anatomie, Botanik und Geologie beschäftigte. Eine bestimmte Richtung erhielt die Tätigkeit Darwins erst während einer Weltumseglung, die von 1831-1836 währte. Eingehende Studien, die er während dieser Reise über die lebenden und die fossilen Formen Südamerikas, sowie über die Flora und die Fauna der Galapagosinseln anstellte, haben ihn zu seinen Untersuchungen und Spekulationen über die Entstehung der Arten angeregt. Neben rein wissenschaftlichen Arbeiten hat ihn das Problem seit seiner Rückkehr bis zu seinem Tode (1882) unausgesetzt beschäftigt363.
Zunächst begab sich Darwin an ein geduldiges Sammeln und Erwägen aller Arten von Tatsachen, die möglicherweise in irgend einer Beziehung zu dem Problem stehen konnten, mit dem sich schon der Großvater Darwins364 in seiner »Zoonomie« beschäftigt hatte. Schon vor Lamarck hatte dieser die Lehre von der Entwicklung der Arten nicht nur klar ausgesprochen, sondern sie auch auf bestimmte Ursachen zurückzuführen gesucht. Unter diesen Ursachen der Entwicklung spielt der Gebrauch und der Nichtgebrauch der Organe gleichfalls schon eine wichtige Rolle. Zu den mechanisch wirkenden Ursachen gesellen sich nach Erasmus Darwin auch psychische, wie der Hunger, die Wollust und der Sicherheitstrieb.
Von dem Einfluß, den die Lehren Erasmus Darwins auf seinen Enkel Charles Darwin ausgeübt haben, handelt eine unter dem Titel Charles und Erasmus Darwin veröffentlichte Abhandlung von Walther May (Archiv für die Geschichte der Naturwissenschaften und der Technik, 1909, S. 1-90). Danach kann, obgleich Darwin in jüngeren Jahren die »Zoonomie« seines Großvaters bewunderte, ein tieferes Abhängigkeitsverhältnis nicht angenommen werden. Der Einfluß, den Lyell und Malthus auf Charles Darwin ausgeübt haben, ist jedenfalls viel bedeutender gewesen.
Lyells Prinzipien der Geologie365 waren erschienen, kurz bevor Darwin seine Weltreise antrat. Unter dem Eindruck der von Lyell in diesem epochemachenden Werke entwickelten Lehre von den allmählichen Veränderungen der Erde, hatte Darwin die geologische und die paläontologische Erforschung Südamerikas unternommen. Nach seiner Rückkehr hatte er sich in die Lehren des Nationalökonomen Malthus vertieft. In einer Schrift366 vom Jahre 1798 hatte dieser den Gedanken entwickelt, daß die Vermehrung und die Beschaffung von Nahrung die treibenden Kräfte der menschlichen Gesellschaft seien. Aus dem Umstande, daß die Vermehrung nach geometrischem Verhältnis, also sehr rasch erfolgt, während das erforderliche Mehr an Nahrung sich nur in bescheidenen Grenzen beschaffen läßt, ergibt sich ein Widerstreit zwischen den[Pg 253] beiden Faktoren, dessen Ergebnis das jeweilige Maß der Bevölkerung ist.
Als Regulatoren, die aus diesem Widerstreit das Gleichgewicht hervorgehen lassen, betrachtet Malthus diejenigen Umstände, die einer allzustarken Vermehrung entgegenwirken. Solche hemmenden Einflüsse sind mangelhafte Ernährung, Krankheiten, Kriege usw. Aus diesem Kampfe mit ungünstigen Umständen gehen die kräftigeren Individuen als Sieger hervor, während die schwachen und unfähigen unterliegen und ausscheiden. Malthus kommt bekanntlich zu dem Schlusse, daß die Menschheit jene beiden treibenden Faktoren beherrschen, d. h. dafür sorgen müsse, daß die Vermehrung und die Aufschließung neuer Quellen des Wohlstandes gleichen Schritt halten.
Die Malthussche Lehre ist ohne Zweifel das bei weitem wichtigste Fundament der von Darwin entwickelten Theorie gewesen. Das von Malthus aufgefundene Prinzip, muß sich, schließt Darwin, mit »verstärkter Kraft auf das gesamte Tier- und Pflanzenreich übertragen.« Denn im Naturzustande ist keine künstliche Beschaffung von Nahrungsmitteln und keine überlegte Einschränkung der Vermehrung möglich. Dazu kommt, daß die Vermehrung vieler Tier- und Pflanzenarten, wenn alle Keime auch nur einer einzigen Art zur Entwicklung gelangten, binnen kurzem die gesamte Erde mit dieser einen Art bedecken würde.
Darwin1 knüpfte ferner an die bekannte Tatsache an, daß der Mensch durch bewußte Zuchtwahl innerhalb geschichtlicher Zeiten aus den von ihm in Zucht genommenen Tier- und Pflanzenarten Varietäten erzeugt hat, die von der Stammart in solchem Grade abweichen, daß man in der Unkenntnis des wahren Sachverhaltes diese Varietäten als neue Arten betrachten würde. Seine Untersuchungen richteten sich auf die Frage, ob in der Natur Umstände wirken, die in der gleichen Weise wie die vom Menschen ausgeübte Zuchtwahl tätig sind. Diese Frage ist durch Darwin in seinem Werke über die Entstehung der Arten367 bejaht worden.
Der in Anlehnung an Malthus entstandene Grundgedanke Darwins ist der folgende. Die Einzelwesen einer Art stimmen nicht vollkommen überein, sondern sie zeigen kleine Abweichungen, die der Züchter, indem er sich auf das Gesetz der Erblichkeit stützt, in der von ihm gewünschten Richtung zu steigern vermag. Es ist somit auch für den natürlichen Verlauf die Möglichkeit einer derartigen Steigerung gegeben, wenn Verhältnisse obwalten, welche die Rolle des Züchters zu übernehmen vermögen. Derartige Verhältnisse bestehen nach Darwin in der raschen Vermehrung aller Lebewesen und in dem hierdurch hervorgerufenen Kampfe um die Existenzbedingungen. Aus diesem Kampfe werden diejenigen Einzelwesen als die Überlebenden hervorgehen, die hinsichtlich der Anpassung an jene Bedingungen durch irgend welche Vorzüge vor ihren Mitbewerbern ausgezeichnet sind. Indem ferner die Überlebenden allein zur Fortpflanzung gelangen, übertragen sie jene Vorzüge auf ihre Nachkommen, so daß im Lauf der Generationen ebensolche Steigerungen stattfinden werden, wie sie der Mensch durch künstliche Zuchtwahl bewirkt. Auch ist in hohem Grade wahrscheinlich, daß unter Zuhilfenahme geologischer Zeiträume Änderungen erfolgen, die über den Gattungscharakter hinausgehen.
Durch die Lehre Darwins ist es in vielen Fällen möglich gewesen, das, was früher als zweckmäßige, zielbewußte Einrichtung erschien, wie die Beziehungen der Blumen und Insekten, begreiflicher erscheinen zu lassen. Legt man die Deszendenztheorie zugrunde, so erscheint ferner das System nicht mehr als eine Summe von Abstraktionen, sondern als der Ausdruck der natürlichen Verwandtschaft aller aus einem gemeinsamen Ursprung entstammenden Lebewesen. Auch auf dem Gebiete der Geologie erscheint jetzt manches Rätsel gelöst. Die fossilen Arten wurden nicht vernichtet und durch neue ersetzt, wie noch der hervorragendste zur Zeit Darwins lebende deutsche Geologe368 annahm, sondern sie sind als die Stammformen der jetzt die Erde bevölkernden Arten zu betrachten. Dementsprechend ist trotz zahlloser Lücken der geologischen Urkunde, wenn man die ausgestorbenen Lebewelten von der ältesten bis zur jüngsten Formation vergleicht, eine allmähliche Vervollkommnung und eine stete Annäherung an den Charakter der heutigen Fauna und Flora nicht zu verkennen. Faßt man ferner nur die Lebewelt eines begrenzten Landstrichs ins Auge, so findet man häufig in den jüngsten Ablagerungen, welche den Boden dieses[Pg 255] Landstrichs zusammensetzen, Überreste von Tierformen, die von den jetzigen Bewohnern des betreffenden Landes nur wenig verschieden sind. Dieser Umstand war es auch, der Darwin zu seinen Betrachtungen anregte und sich ihm geradezu aufdrängte, als er sich im Jahre 1837 auf seiner Weltumsegelung der naturgeschichtlichen und geologischen Erforschung Südamerikas widmete. In den diluvialen und tertiären Bildungen jenes Erdteils fanden sich nämlich zahlreiche Überreste riesiger Gürtel- und Faultiere, also von Typen, die noch heute der Fauna jenes Landes ihr charakteristisches Gepräge verleihen369.
»Diese wunderbare Verwandtschaft«, schrieb Darwin schon damals, »zwischen den lebenden und den ausgestorbenen Tieren eines und desselben Erdteils wird unzweifelhaft mehr Licht auf das Erscheinen organischer Wesen, sowie auf ihr Verschwinden werfen als irgend eine andere Gruppe von Tatsachen.«
Ebenso wichtig wie die Gegenüberstellung fossiler und verwandter lebender Formen wurde für die Lösung des Problems der Entstehung der Arten ein Vergleich zwischen den Organismen eines Kontinentes und denjenigen einer benachbarten Inselgruppe. Darwin stellte diesen Vergleich auf den Galapagosinseln an, einer Gruppe, die nahezu tausend Kilometer von Südamerika entfernt ist. Was sich ihm aufdrängte, war die Beobachtung, daß die Inseln eine in den Gattungen ähnliche, in den Arten aber abweichende Flora und Fauna besaßen, wie sie der benachbarte Kontinent aufwies. »Der Naturforscher«, schrieb Darwin, »der die Bewohner der Galapagosinseln betrachtet, fühlt, daß er auf amerikanischem Boden steht, obwohl er noch einige hundert englische Meilen von dem Festlande entfernt ist.« Offenbar war diese Tatsache, die sich auch an anderen einem Kontinente benachbarten Inselgruppen beobachten ließ, mit der Annahme einer unabhängigen Schöpfung der Arten nicht zu vereinigen. Es lag vielmehr nahe,[Pg 256] eine auf natürlichem Wege erfolgte Besiedelung der Inseln von seiten der Kontinente anzunehmen. Die Abweichungen in den Arten ließen sich am ungezwungensten daraus erklären, daß die Kolonisten im Laufe der Zeit zwar Abänderungen erfahren haben, ihren Ursprung aber immer noch deutlich erkennen lassen.
Trotz der großen Bedeutung, welche die von Darwin aufgedeckten Beziehungen für das Eindringen in den Zusammenhang biologischer Erscheinungsreihen besitzen, blieb die Theorie doch weit davon entfernt, eine ursächliche Erklärung der Lebewelt zu geben. Es regten sich erhebliche Zweifel, ob das aus Millionen wunderbar gefügter Zellen aufgebaute Wirbeltier oder gar der Mensch, welcher dichtet und denkt und sich die Naturkräfte zu Dienerinnen macht, allein durch nützliche Anpassung aus dem mikroskopisch kleinen Protoplasmaklümpchen hervorgehen konnte. Versetzt man sich ferner zu den Anfängen des Lebens zurück! Die Erde empfängt oder erzeugt die ersten, einfachsten Organismen, alle entwickelteren Wesen fehlen noch. Wie konnte bei einer solchen Einförmigkeit das Spiel der natürlichen Auslese beginnen? Man darf ferner nicht vergessen, daß wir der Frage nach der ersten Entstehung des organisierten Stoffes, sowie der Natur seiner wunderbaren Eigenschaften auch heute noch ratlos gegenüberstehen.
Darwins Lehre fand denn auch von vornherein nicht nur rasch überzeugte Anhänger, sondern auch viel Widerspruch. Der Kampf um ihre Richtigkeit wurde sogar oft mit Schärfe, ja mit Erbitterung geführt, zumal dort, wo religiöse und politische Gesichtspunkte in diesen Kampf hineingezogen wurden. Zu einem Dogma, von dessen Wahrheit jeder Gebildete überzeugt sein müsse, wurde die Selektionstheorie von einer großen Anzahl deutscher Gelehrter gestempelt. Darwin wurde als der Koppernikus der organischen Welt bezeichnet. Wer an ihm zweifelte, lief Gefahr, als unwissenschaftlich und rückständig verschrieen zu werden, auch wenn sich der Zweifel aus rein wissenschaftlichen Gründen regte. Wenn wir heute auf diese von 1860 bis gegen das Ende des 19. Jahrhunderts dauernden Kämpfe für und wider die Darwinsche Lehre zurückblicken, so kann man sich nicht verhehlen, daß sie ihren Ursprung nicht nur in dem Mangel vorurteilsfreien Denkens und sachlicher Beurteilung haben. Was diese Kämpfe mit veranlaßte, war das Fehlen des geschichtlichen Sinnes. Es wurde in der Einleitung zu diesem Bande hervorgehoben, daß nichts so sehr imstande ist, die Einseitigkeit und den Dogmatismus aus der Wissen[Pg 257]schaft fern zu halten, wie die historische Betrachtungsweise. Das mit dem Ende des vorigen Jahrhunderts einsetzende Emporblühen der Wissenschaftsgeschichte bietet die beste Gewähr für eine ruhige und erfolgreiche Entwicklung der naturwissenschaftlichen Forschung. Den Übertreibungen der darwinistischen Richtung trat Darwin selbst entgegen. Er erblickte in der natürlichen Zuchtwahl nicht das einzige, wie seine Anhänger wollten, sondern nur das hauptsächlichste Mittel der Umbildung der Arten.
Wenn auch Darwins Theorie das Problem der Entstehung der Arten nicht zu lösen vermochte, so bedeutete sie doch einen wichtigen Schritt auf dem Wege zu dieser Lösung. Außerdem hat diese Theorie nicht nur der Biologie, sondern auch fast sämtlichen übrigen Wissenszweigen von der Astronomie bis zur Soziologie eine Fülle von Anregungen geboten. In einem ganz neuen Lichte erschien vor allem der Mensch. Darwin hatte seine Stellung innerhalb der Schöpfung zunächst von seinen Betrachtungen ausgeschlossen und nur bemerkt, durch seine Theorie »werde auch auf den Ursprung des Menschen und seine Geschichte Licht geworfen werden«. Der erste der auf Grund der Deszendenzlehre die Stellung des Menschen in der Natur wissenschaftlich und zwar besonders vom Standpunkte des Anatomen untersuchte, war Huxley (1863). Er wies nach, daß im äußeren und inneren Bau, besonders im Bau des Gehirns, ein größerer Abstand zwischen den niederen und den höheren Affen vorhanden ist, als zwischen den letzteren und dem Menschen. Die schon von Linné und von Blumenbach geäußerte Ansicht, daß der Mensch naturhistorisch mit den Primaten zu einer Gruppe zu vereinigen sei, wurde also nur bestätigt.
Darwin selbst veröffentlichte im Jahre 1871 ein zweibändiges Werk370, in dem er eingehend darzulegen suchte, daß der Mensch von einer niedriger stehenden Form abstammt, welches die Art seiner Entwicklung war und welchen Wert die Unterschiede zwischen den einzelnen Menschenrassen besitzen.
Mit der Einreihung des Menschen in die Welt der übrigen Organismen begann ein Suchen nach den Ahnen der höheren Tiere und den diesen Ahnen noch heute entsprechenden Zwischenformen. Kowalevsky erblickte sie in den Tunikaten oder Manteltieren, die in ihrer Entwicklung manche Analogie mit dem Urwirbeltier,[Pg 258] dem Amphioxus, erkennen lassen. Semper dagegen glaubte verwandtschaftliche Beziehungen zwischen den Wirbeltieren und den Ringelwürmern nachweisen zu können371. Am weitesten erging sich in Spekulationen über die Stammesgeschichte der Wirbeltiere, einschließlich des Menschen, der Jenenser Zoologe Haeckel. Er war beherrscht von dem Gedanken, daß die Entwicklung des Einzelwesens die Stammesgeschichte in ihren Hauptzügen wiedererkennen lasse. Diesen Satz betrachteten Haeckel372 und seine Anhänger als das biogenetische Grundgesetz. Sie brachten es auf die kurze Formel, die Ontogenie sei eine Rekapitulation der Phylogenie373. Von diesem Gesichtspunkte aus erscheint die Gastrula374 als das Abbild der gemeinsamen Urform, aus der sich sämtliche aus Zellen aufgebauten Tiere (Metazoen) entwickelten. Haeckel gab dieser Urform den Namen Gastraea. Nach seiner von ihm in der Gastraeatheorie375 vorgetragenen Lehre sollen sich aus dem während der Primordialzeit entstandenen Geschöpf die den höheren Tierkreisen zugrunde liegende, radiäre und die bilateral symmetrische Form entwickelt haben.
Erschüttert wurde die ganze Betrachtungsweise Haeckels[Pg 259] und seiner Anhänger besonders durch die von Haeckel auf das heftigste befehdete Einsicht, daß die Entwicklung nicht ausschließlich durch die Stammesgeschichte bedingt sein könne, sondern auch rein mechanisch wirkenden, durch das Experiment in mannigfacher Weise abzuändernden Ursachen unterworfen sei. Schon um die Mitte des 19. Jahrhunderts wurde die Forderung aufgestellt, man müsse die Ursachen zu ermitteln suchen, durch welche die Anordnung der Organe bewirkt werde, ähnlich wie man eine bestimmte Kristallform aus der Kombination der wirkenden Einflüsse zu erklären strebe. Mit anderen Worten, man müsse eine Physiologie der Plastik anstreben376.
Die ersten nach dieser Richtung unternommenen Versuche rühren von W. His her. Er nahm an, daß sich jeder Entwicklungszustand als eine Folge des unmittelbar vorgehenden Zustandes begreifen lassen müsse. Das am Embryo auftretende ungleichmäßige Wachstum, die Bildung von Schichten, ihr Aufrollen zu Falten usw. sollten als mechanisch wirkende Ursachen genügen, um das Zustandekommen der fertigen Form zu erklären. Offenbar war dies eine einseitige Überschätzung mitwirkender Umstände. Auf einem anderen Wege suchten W. Roux und eine neuere von ihm begründete Schule die mechanischen Ursachen der Entwicklung zu ergründen. Roux und seine Anhänger beschränken sich nicht auf die bloße Beobachtung, sondern sie bedienen sich des Versuches, indem sie durch mechanische Eingriffe den Ablauf des Entwicklungsvorganges zu beeinflussen und aus den eintretenden abnormen Erscheinungen allgemeine Schlüsse zu ziehen suchen377. Einer der ersten Versuche von Roux bestand darin, daß er am Froschei, nachdem die erste Teilung erfolgt war, die eine Furchungskugel durch eine erhitzte Nadel tötete. Die unversehrte Zelle entwickelte sich darauf zu einem im wesentlichen normalen halben Embryo. Später dehnte Roux mit ähnlichem Erfolg diesen Versuch auf die Eier niederer Tiere (Stachelhäuter, Pflanzentiere) aus. Die erste Zellwand, die das Froschei teilt, fällt danach mit der Symmetrieebene des fertigen Tieres zusammen. Eins der Ziele der Entwicklungsmechanik besteht seit diesem wichtigen Versuche darin, die einzelnen Regionen des Keimes festzustellen, aus denen sich[Pg 260] bestimmte Einzelorgane entwickeln. Nicht geringe Schwierigkeiten erwuchsen allerdings aus der Tatsache, daß sich an den künstlich erzeugten Halbembryonen die fehlende Körperhälfte nachbildet378.
Eine wichtige Rolle für die Auffassung der Art und die Frage nach der Entstehung der Arten spielt die Kreuzung zwischen nahe verwandten Formen und die durch sie bedingte Bastardbildung. Die wissenschaftliche Erforschung der Bastardbildung beginnt mit Kölreuters an verschiedenen Nicotiana-Arten angestellten Versuchen. Trotz der von Kölreuter schon um 1760 erzielten Erfolge379, blieben manche Zweifel nicht nur hinsichtlich der Bastardbildung, sondern selbst bezüglich der Sexualität der Pflanzen noch bis in das neunzehnte Jahrhundert hinein bestehen. Dies veranlaßte Gärtner sich in einer gründlichen, den Zeitraum von fünfundzwanzig Jahren umfassenden Untersuchung mit der Frage der Sexualität und der Bastardbildung zu beschäftigen380.
Die Werke, in denen Gärtner seine Ergebnisse veröffentlichte, erwarben sich den Ruhm, daß sie »das Gründlichste und Umfassendste darstellen, was bisher über die experimentelle Untersuchung der Sexualitätsverhältnisse geschrieben wurde«381. Das Hauptergebnis war der Nachweis, daß sich ohne die Mitwirkung des Pollens in dem Samen keine neue Pflanze bildet, die Blütenpflanzen also ganz wie die Tiere geschlechtlich differenziert sind.
Die von Gärtner über die Bastardierung veröffentlichten Arbeiten stützten sich auf viele tausend Einzelfälle. Weitere eingehende Untersuchungen anderer Forscher382 schlossen sich an.[Pg 261] Vor allem verstand es Darwin, die älteren Ergebnisse mit den eigenen zu einem klaren Gesamtbilde zu vereinigen, wobei er den fast vergessenen Konrad Sprengel wieder zu Ehren brachte. So kam es, daß man um die Mitte der sechziger Jahre zu einigen allgemeinen Sätzen gelangt war, unter denen folgende hervorgehoben zu werden verdienen.
Die Bastardbildung ist auf Arten beschränkt, die nahe miteinander verwandt sind, doch ist die Fähigkeit, Bastarde zu bilden, auch bei nahe verwandten Arten sehr verschieden. Z. B. gelang es nicht, Bastarde von so ähnlichen Arten wie dem Apfel- und dem Birnbaum zu erzielen, während mitunter sehr unähnliche Arten Bastarde ergaben.
Findet eine sexuelle Vereinigung zwischen zwei Arten A und B statt, so kann in der Regel der Pollen von A die Samenanlage von B und der Pollen von B die Samenanlage von A befruchten (Reziproke Hybridation). Indessen tritt mitunter nur dann eine Vereinigung ein, wenn der Pollen von A auf die Narbe von B gelangt.
Nach der älteren, noch von Gärtner, Nägeli und Darwin geteilten Ansicht, halten die Bastarde in ihren Eigenschaften etwa die Mitte zwischen den beiden elterlichen Formen. Es sollte eine gegenseitige Durchdringung der Merkmale stattfinden. Doch beobachtete man außer den ererbten Merkmalen auch neue, z. B. daß die Bastarde eine stärkere Neigung zu variieren besitzen. Auch dafür, daß gewisse Merkmale häufig nicht verschmelzen, waren viele Beispiele bekannt geworden383. Wurden z. B. weiße und graue Mäuse miteinander gepaart, so waren die Jungen weder gescheckt noch von einem mittleren Farbenton. Sie waren vielmehr entweder rein weiß oder von der gewöhnlichen grauen Farbe. Ähnliche Fälle hatte man bei Pflanzen beobachtet. So hatte Gärtner rein weiß und rein gelb blühende Arten von Verbascum gekreuzt. Diese Färbungen zeigten sich bei den Nachkommen nie verschmolzen, sondern letztere trugen entweder rein weiße oder rein gelbe Blüten.
Es fehlte also bei der Bastardbildung allem Anschein nach an jeder Regelmäßigkeit und es gehörte kein geringer Mut dazu, sich an die wissenschaftliche Analyse dieses Vorgangs zu wagen,[Pg 262] zumal sich vorhersehen ließ, daß sie zahllose mühevolle und über einen langen Zeitraum auszudehnende Versuche erfordere. Der Mann, der sich dieser Aufgabe unterzog und der sie mit glücklichem Erfolge, wenn auch fast unbeachtet von der zeitgenössischen Forschung, löste, war Mendel384.
Als Mendel sich mit den von Kölreuter, Gärtner und vielen anderen über die Bastardierung angestellten Arbeiten beschäftigte, fiel ihm auf, daß man bisher versäumt hatte, für die verschiedenen Formen der Hybriden und zwar für die einzelnen Generationen die numerischen Verhältnisse festzustellen. Darin erblickte Mendel seine Aufgabe. Um sie zu lösen, kreuzte er zwei Pflanzenarten, die konstante, scharf von einander unterschiedene Merkmale besitzen, und deren Bastarde in der ersten und den späteren Generationen keine merkliche Störung in der Fruchtbarkeit erleiden. Einleitende Versuche ergaben, daß das Genus Pisum (die Erbsenarten) jenen Anforderungen hinreichend entsprach.
Mendels später als biologische Elementaranalyse bezeichnetes Verfahren bestand darin, daß er einige scharf bestimmte Merkmale der zu kreuzenden Arten einander gegenüberstellte und ihr Auftreten an den Bastardpflanzen durch mehrere Generationen hindurch verfolgte. Als solche Merkmale wählte Mendel z. B. die Gestalt der reifen Samen (rundlich, kantig, runzelig), Unterschiede in der Form der reifen Hülse (glatt oder zwischen den Samen tief eingeschnürt), Verschiedenheiten in der Farbe bestimmter Blütenteile, in der Länge der Achsen usw.
Mendels Versuche bewiesen zunächst, daß der Bastard in der Regel nicht die genaue Mittelform zwischen den beiden Stamm[Pg 263]arten darstellt. Vielmehr verhielten sich bei der Kreuzung die Merkmale im allgemeinen selbständig, indem sie sich sozusagen nur aneinander legten. Die an dem Bastard wieder in die Erscheinung tretenden Merkmale nannte Mendel »dominierende Merkmale«. Es zeigte sich nämlich, daß dem Bastard mitunter einige von den ins Auge gefaßten Merkmalen (bei der Untersuchung der Erbsenarten waren es sieben) der Stammarten fehlen. Solche von Mendel »rezessiv« genannte Merkmale waren aber nach der Bedeutung des Wortes rezessiv nur unterdrückt, sozusagen im Verborgenen vorhanden. Sie kamen nämlich an den Nachkommen der Bastarde (der ersten Generation der Hybriden) unverändert wieder zum Vorschein. Diese Tatsache, daß bei dem Bastard das eine von den ins Auge gefaßten Merkmalen durch das entgegengesetzte Merkmal unterdrückt wird, hat man als die erste Mendelsche Regel bezeichnet. Die beiden Erbsenarten, die Mendel kreuzte, unterschieden sich unter anderem in der Länge der Achsen. Bei der einen Art waren die Achsen nur etwa einen Zoll lang, bei der zweiten etwa sechs Zoll. In beiden Fällen handelte es sich um gesunde, in dem gleichen Boden gezogene Pflanzen. Der Unterschied in diesem Merkmal war also nicht von zufälligen Bedingungen (besserer oder schlechterer Ernährung z. B.) abhängig, sondern ein den beiden Stammarten eigentümlicher, konstanter. Die erzielten Bastarde besaßen nun nicht etwa eine mittlere Achsenlänge, sondern sie waren sämtlich langstenglig. Das eine Merkmal verdeckte also das andere völlig. Die langen Stengel dominierten, die kurzen waren rezessiv.
Das rezessive Merkmal kam aber in der ersten Generation der Nachkommen der Bastardpflanzen wieder zum Vorschein. Ein Teil dieser Nachkommen besaß die lange Achse, die übrigen die kurze. Jetzt begab sich Mendel ans Auszählen. Das Ergebnis war ein bestimmtes Durchschnittsverhältnis zwischen der Anzahl der Formen mit dem dominierenden und mit dem rezessiven Merkmal. Das Verhältnis war 3 : 1. Das heißt unter den Nachkommen des langachsigen Bastards kamen auf 3 langstenglige Pflanzen eine kurzstenglige. Ähnliche ziffernmäßige Beziehungen ergaben sich für die weiteren Generationen. Wir wollen sie an einem durch eine einfache Abbildung leicht zu erläuternden Fall klarmachen. Es handelt sich um die Kreuzung von zwei Brennesselarten, von denen die eine stark gezähnte, die andere fast ganzrandige Blätter besitzt. Die beiden Stammarten a und b ergeben einen Bastard c, bei dem das Merkmal von a dominiert, dasjenige[Pg 264] von b aber rezessiv geworden ist. Bei den Nachkommen des Bastards c findet sich in der ersten Generation das in c rezessive (unterdrückte) Merkmal wieder und zwar kommen auf drei Individuen mit dem dominierenden Merkmal (d1, d2, d3) eins mit dem rezessiven (d4). Dies Verhältnis ist kein absolut feststehendes, sondern ein angenähertes. Es tritt um so deutlicher hervor, je mehr Fälle in Betracht gezogen werden und auf je mehr Gegenüberstellungen von Merkmalen es ausgedehnt wird. So fand Mendel bei dem erwähnten Kreuzungsversuch von zwei Erbsenarten, indem er jedesmal etwa tausend Nachkommen des Bastards in Betracht zog, für die einzelnen Merkmale die Verhältnisse:
3,15 : 1 | (Blütenfarbe) |
2,95 : 1 | (Form der Hülse) |
2,82 : 1 | (Farbe der Hülse) |
3,14 : 1 | (Stellung der Blüten) |
Im Durchschnitt 2,98 : 1, | also annähernd 3 : 1. |
Hatte z. B. die eine Stammform rote, die andere weiße Blüten, und besaß der Bastard die rote Blütenfarbe, während die weiße ganz ausfiel, so trat an den Nachkommen des Bastards die rote[Pg 265] und die weiße Blütenfarbe im Verhältnis 3,15 : 1 auf. Eine Regelmäßigkeit in der Vererbung der Merkmale trat auch bei den folgenden Generationen des Bastards in die Erscheinung. Abbildung 41 läßt sie deutlich erkennen. Die Formen d4, die in der ersten Generation des Bastards c das im Bastard unterdrückte (rezessive) Merkmal aufweisen, ändern sich in bezug auf dieses Merkmal nicht mehr, sie bleiben in ihren Nachkommen (e4) konstant. Anders verhält es sich mit den Formen d1 d2 d3, die in der ersten Generation das beim Bastard c dominierende Merkmal, d. h. einen gezähnten Blattrand besitzen. Von diesen Formen d1 d2 d3 geben zwei Teile (d2, d3) Nachkommen, die wieder in dem Verhältnis 3 : 1 das dominierende und das rezessive Merkmal an sich tragen. Bei einem Teil dagegen (d1) bleibt das dominierende Merkmal bei den Nachkommen (e1) konstant, wie es bezüglich des rezessiven Merkmals mit d4 der Fall war.
Nimmt man an, daß die Fruchtbarkeit der Bastardnachkommen d1, d2, d3, d4 gleich groß ist, was in Abbildung 41 dadurch zum Ausdruck kommt, daß für d1, d2, d3, d4 der Einfachheit halber wieder je vier Nachkömmlinge angesetzt sind, so ergibt sich, daß die konstant gewordenen Formen sich zu denjenigen, bei denen noch eine Spaltung der Merkmale nach dem Verhältnis 3 : 1 vor sich geht, wie
1 : 2 : 1
verhalten.
Verfolgt man die von dieser Spaltungsregel beherrschten numerischen Verhältnisse durch eine Anzahl weiterer Generationen, so erkennt man, daß die Zahl der Individuen mit den beiden konstanten Merkmalen (dem dominierenden und dem rezessiven) immer mehr überwiegt. Dies entspricht der schon von Gärtner und Kölreuter gemachten Wahrnehmung, daß die Bastarde Neigung besitzen, in ihren weiteren Generationen zu den Stammarten zurückzukehren.
Sehr viel verwickelter wurde die Untersuchung, als Mendel sich nicht mehr auf ein Merkmal beschränkte, sondern gleichzeitig mehrere Merkmale in Betracht zog. Nach Mendel herrschen in diesem Falle bei der Bastardbildung die Regeln der Kombinationsrechnung. So hatte er bei den beiden Erbsenarten, wie wir sahen385, 7 Paare von charakteristischen Merkmalen einander gegenübergestellt. [Pg 266]Die Zahl der Kombinationen ist in diesem Falle 27 = 128. Mendel zeigte, daß sich durch wiederholte Kreuzung jene 128 Kombinationen wirklich darstellen lassen, eine Regel, der er folgenden Ausdruck gab: Konstante Merkmale, die an verschiedenen nahe verwandten Formen vorkommen, können auf dem Wege der wiederholten künstlichen Befruchtung in alle Verbindungen treten, die nach den Regeln der Kombination möglich sind.
Mendels Untersuchungen wurden, zum Teil infolge der Art der Bekanntgabe, zunächst kaum beachtet. Sie fielen fast der Vergessenheit anheim. Erst im Jahre 1900, nachdem mehrere Forscher zu ähnlichen Ergebnissen gelangt waren, wurden Mendels Abhandlungen sozusagen wieder entdeckt. Seitdem haben sie die Anregung zu zahlreichen weiteren Untersuchungen und zu einer besonderen Richtung gegeben, die man wohl als Mendelismus bezeichnet. Diese Forschungsrichtung ist auch für die Landwirtschaft von Wichtigkeit geworden, besonders seitdem man von den Untersuchungen an Pflanzen zu im Sinne Mendels durchgeführten Kreuzungsversuchen mit Tieren übergegangen ist. Es sind aber auch Zweifel an der unbedingten Zuverlässigkeit der Mendelschen Regeln hervorgetreten386. Auch der Versuch, die Mendelschen Regeln aus dem Verhalten der bei der Kreuzung in Verbindung tretenden Geschlechtszellen (Eizelle und Samenfaden) zu erklären, fand bisher noch keine allgemeine Anerkennung.
Zu einer wissenschaftlich begründeten Entwicklungslehre war man zuerst auf dem Gebiete der Geologie gelangt. Diese auch wohl als Aktualismus bezeichnete Lehre hatte um 1830 Lyell klar und überzeugend entwickelt. Sie gipfelte, wie wir in einem früheren Abschnitt sahen, in der Erkenntnis, daß der jetzige Zustand der Erde langsam aus dem Wirken der noch heute zu beobachtenden Kräfte entstanden ist, und daß die Gegenwart nur einen Augenblick in diesem Entwicklungsprozeß darstellt. An Lyell knüpften Darwin und Wallace an. Sie übertrugen den Aktualismus von der allgemeinen Geologie auf das der Erde entsprossene Leben. Ihnen stellte sich die Welt der Organismen als ein Problem dar, das nur in Verbindung mit den geologischen Forschungen Aussicht auf Lösung bietet. Die Beziehungen, in denen die lebenden Tier- und Pflanzenarten zu den zahlreichen in den geologischen Formationen vorhandenen paläontologischen Urkunden stehen, bildeten deshalb für Darwin wie für Wallace den Ausgangspunkt. Ein glücklicher, einem ganz anderen Gebiete entstammender Gedanke, nämlich das Bevölkerungsprinzip von Malthus, ließ dann fast gleichzeitig bei Darwin und bei Wallace eine Theorie entstehen, welche dem von Erasmus Darwin und von Lamarck geschaffenen Begriff des Transformismus eine wertvolle Stütze verlieh. Den Grundgedanken des Aktualismus, daß der gegenwärtige Zustand der Natur nur einen Übergangszustand in einer fortlaufenden, von natürlichen Bedingungen abhängenden Entwicklung darstellt, kleidet Darwin in die Worte: »Es ist anziehend, beim Anblick eines dicht bewachsenen Ufers mit singenden Vögeln in den Büschen, mit schwärmenden Insekten in der Luft und kriechenden Würmern im feuchten Boden sich zu denken, daß alle diese so kunstvoll gebauten Lebensformen durch Gesetze hervorgebracht sind, die noch fort und fort um uns wirken«.
Seit der Neubegründung der Deszendenzlehre durch Darwin und Wallace traten die Geologie und die Biologie in engste[Pg 268] Fühlung, weil beide Wissenschaften in der Aufhellung der Geschichte des organischen Lebens eins ihrer wichtigsten Probleme erkannten. In nicht geringerem Grade indessen wurden die Geologie und die Mineralogie im Verlauf des 19. Jahrhunderts durch die chemisch-physikalische Forschung befruchtet. Dies zu zeigen, soll die Aufgabe des vorliegenden Abschnittes sein.
Seit der Mitte des 19. Jahrhunderts wurde mit Hilfe des Mikroskops das innere Gefüge der Gesteine erschlossen und dadurch manche Frage über das Wirken der gesteinsbildenden Vorgänge beantwortet. Der erste Forscher, welcher diesen Weg beschritt, war der Engländer Sorby387. Das vor ihm nur gelegentlich geübte Verfahren, durchsichtige oder durchscheinende dünne Platten der zu untersuchenden Gesteine (sogenannte Dünnschliffe) herzustellen, wurde von Sorby zu einem Hilfsmittel allerersten Ranges ausgebildet.
Sorbys für die neuere Petrographie grundlegende Abhandlung erschien im Jahre 1858388. Sie führt den Titel »Über die mikroskopische Struktur der Kristalle und ihren Zusammenhang mit dem Ursprung der Mineralien und Gesteine«. Aus der Beschaffenheit der Dünnschliffe, insbesondere aus ihrem Gehalt an Schlacken-, Gas- und Flüssigkeitseinschlüssen, sowie durch den steten Vergleich mit den entsprechenden Verhältnissen an künstlich aus der Lösung oder aus dem Schmelzfluß hergestellten Kristallen vermochten Sorbys mikroskopische Untersuchungen den wässrigen oder feurig-flüssigen Ursprung der Gesteine zu ermitteln und damit Fragen, die seit den Tagen Werners die Wissenschaft bewegt hatten. zur Entscheidung zu bringen.
Sorbys Methoden wurden besonders durch Zirkel389 weiter entwickelt. In der Folgezeit wurde Deutschland wie zu Werners Zeiten »die eigentliche Pflegestätte der wissenschaftlichen Gesteinskunde«390. Während 1866 in der ersten Auflage von Zirkels Lehrbuch der Petrographie, dem großen Hauptwerk, das wir über dieses Gebiet besitzen, die Wichtigkeit der Gesteinsmikroskopie erst angedeutet wurde und im übrigen noch die ältere makro[Pg 269]skopische Untersuchung den Ausschlag gab, hatte sich das Aussehen der petrographischen Wissenschaft beim Erscheinen der zweiten Auflage (1893/94) vollkommen geändert. Infolgedessen gründete Zirkel in dieser Auflage alle Betrachtungen über die Zusammensetzung, die Einteilung und den Ursprung der Gesteine auf die eingehendsten mikroskopischen, mikrochemischen und kristalloptischen Befunde. Vorangegangen waren eine Anzahl monographischer Arbeiten Zirkels über einzelne Gesteine oder Gesteinsgruppen. Unter diesen Arbeiten verdient seine »Untersuchung über die mikroskopische Zusammensetzung und Struktur der Basaltgesteine«391 besonders hervorgehoben zu werden.
Ein zweiter Führer auf dem Gebiete der Petrographie erstand in Deutschland in Rosenbusch. Rosenbusch ließ sich nicht nur eine weitgehende Verbesserung der petrographischen Methoden angelegen sein – er brachte insbesondere das kristalloptische Verfahren zu hoher Vollendung –, sondern er setzte auch die Petrographie, die allzusehr ein Spezialgebiet zu werden drohte, wieder in die engste Beziehung zur allgemeinen Geologie. Dies erreichte Rosenbusch vor allem dadurch, daß er den genetischen Merkmalen Rechnung zu tragen strebte und z. B. bei der Untersuchung der Massengesteine das wichtigste Ziel darin erblickte, zu entscheiden, ob das betreffende Gestein als Tiefengestein, Ganggestein, ob an der Erdoberfläche erstarrtes Ergußgestein anzusehen sei392.
Als das wichtigste allgemeine Ergebnis der von Sorby, Zirkel und Rosenbusch begründeten Gesteinsmikroskopie muß man den Nachweis betrachten, daß Basalt, Trachyt, Porphyr, Melaphyr und Phonolith unzweifelhaft mit den vulkanischen Laven übereinstimmen und daher wie diese auf feurig-flüssigem Wege entstanden sind. Größere, zum Teil noch ungelöste Schwierigkeiten boten die älteren kristallinischen Schiefer dar. Um ihre Beschaffenheit zu erklären, mußte man annehmen, daß nach ihrer Entstehung aus den Sedimenten schwierig zu ergründende, physikalische und chemische Einflüsse ihren Gesteinscharakter wesentlich verändert haben. Eine solche Gesteinsmetamorphose nahm schon Sorby für den Glimmerschiefer an, der sich nach seiner Ansicht aus Tonschiefer unter der Wirkung erhitzten Wassers und mechanischer Kräfte bildete. Rosenbusch dagegen hielt es nicht für[Pg 270] ausgeschlossen, daß die kristallinischen Schiefer Eruptivgesteine oder gar die erste Erstarrungskruste der Erde sind und durch Druck das schiefrige, auf einen sedimentären Ursprung deutende Gefüge angenommen haben. Rosenbuschs Ansicht blieb nicht ohne Widerspruch. Und wenn auch noch manche Frage der Klärung harrt, so gilt doch bezüglich der kristallinischen Schiefer für die Mehrzahl der Geologen auch heute noch die Lehre, daß diese Gesteine zwar als Sedimente abgelagert wurden, darauf aber unter der Einwirkung von Verhältnissen, die dem Urmeere eigen waren, kristallinische Beschaffenheit annahmen393.
Unter der Voraussetzung, daß in den früheren Epochen der Erdgeschichte keine anderen als die heutigen physikalischen Kräfte gewirkt haben, versuchte man die petrogenetischen Vorgänge zu wiederholen, um aus den Versuchsergebnissen Schlüsse auf die gesteinsbildenden Vorgänge älterer Zeitalter zu ziehen. Dies führte zum geologischen Experiment, das uns in seinen Anfängen schon im 18. Jahrhundert bei dem Engländer Hall (1761-1832) begegnet.
Hall lieferte z. B. den Nachweis, daß geschmolzene Gesteinsmassen glasartig oder kristallinisch erstarren, je nachdem sie rasch oder langsam abgekühlt werden. Als Hall Kreide in einem abgeschlossenen Raume erhitzte, so daß die Kohlensäure nicht entweichen konnte, erhielt er ein kristallinisches, dem Marmor ähnliches Erstarrungsprodukt.
Als der Begründer der modernen, alle Hilfsmitteln der Chemie und der Physik benutzenden geologischen Experimentierkunst ist der Franzose Daubrée394 zu nennen. Ihm und seiner wissenschaftlichen Gefolgschaft ist es gelungen, einen tiefen Einblick in die Werkstatt der Natur zu eröffnen.
Es gibt nur wenig geologische Probleme, denen Daubrée nicht durch die Anstellung sinnreich ausgedachter Experimente eine neue Seite abzugewinnen wußte. So untersuchte er, um die Grund[Pg 271]lagen für sein Werk über die Zirkulation des Wassers im Boden zu finden, die Durchlässigkeit der verschiedenen Gesteinsarten. Die Frage der Gesteinsmetamorphose führte ihn zu wichtigen Versuchen mit überhitzten Wasserdämpfen. Aus den erzielten Ergebnissen schloß er, daß weder Hitze allein noch die ausschließliche Wirkung von Gasen und Dämpfen genügen, um die Umwandlungen, welche die sedimentären Gesteine in Berührung oder in der Nachbarschaft von Eruptivgesteinen erlitten haben, zu erklären. Nach Daubrées Versuchen werden jene Umwandlungen durch überhitztes, unter hohem Drucke stehendes Wasser hervorgerufen. Die zu untersuchenden Substanzen schloß Daubrée mit Wasser in starke eiserne Rohren ein und erhitzte sie längere Zeit. Bei dieser Versuchsanordnung verwandelten sich nicht-kristallinische Massen, z. B. Glas, in Kristallgemenge. Es gelang unter der Mitwirkung von überhitztem Wasserdampf, Mineralien wie Orthoklas und Glimmer darzustellen. Eine derartige hydatochemische Entstehung nahm Daubrée auf Grund seiner Experimente nicht nur für die Kontaktmetamorphosen, sondern auch für die ältesten Sedimentärgesteine, den Gneis- und Glimmerschiefer, in Anspruch. Die Schwierigkeit, welche in der kristallinischen Beschaffenheit dieser Sedimente liegt, suchte auch Sorby durch die Annahme zu erklären, daß Feuchtigkeit, hohe Temperatur und Druck ihre Umwandlung aus ursprünglich klastischen und nicht kristallinischen Sedimenten in kristallinische geschichtete Gesteine bewirkt hätten. Eine ohne Widerspruch angenommene Erklärungsweise ist aber trotz aller Bemühungen, auf induktivem Wege die Entstehungsweise der archäischen Gesteine aufzuhellen, noch nicht gefunden. Indessen haben die zahlreichen experimentellen Ergebnisse vieles über die Umstände, unter denen die Entstehung und die Umbildung von Mineralien und Gesteinen im Schoße der Erde vor sich gehen, dargetan.
Von noch größerem Erfolge war das Bemühen gekrönt, die Vorgänge bei der Oberflächengestaltung der Erde durch Versuche aufzuhellen. Diese, insbesondere wieder von Daubrée ausgehenden Versuche erstreckten sich auf die Zerkleinerung und die Abrundung von Gesteinsbruchstücken während der Fortbewegung durch strömendes Wasser, auf die Bildung von Erdspalten und Tälern und vor allem auf die Biegung und Faltung, welche die Schichten bei der Entstehung der Gebirge erleiden. Die Zurückführung eines Faltengebirges auf einen seitlichen Schub erfolgte zuerst durch einen Bewohner des ausgesprochensten Gebirges[Pg 272] dieser Art, des Jura395. Als Ursache des Schubes und der Faltung nahm man bald darauf eine Schrumpfung des Erdkernes (Dana 1846) und damit einen Vorgang an, dessen mechanische Folge notgedrungen zunächst ein seitlicher Schub und endlich eine Runzelung der für den Kern zu weit gewordenen Erdrinde sein mußte. Die experimentelle Geologie ließ es nicht an Versuchen fehlen, diesen Vorgang im Kleinen nachzuahmen. Daubrées Vorrichtung z. B. bestand aus einem eisernen Rahmen, in welchem Schichten aus Ton, Wachs usw. einer Pressung unter den verschiedensten Bedingungen unterworfen wurden. Auf diese Weise erhielt Daubrée Faltungen, welche den in der Natur vorkommenden entsprachen. Überraschend war die Ähnlichkeit, wenn man Tonschichten auf einer gespannten Gummiplatte ausbreitete und sie dann durch allmähliches Nachlassen der Spannung einem seitlichen Schube aussetzte396. Außer den Falten traten auch Brüche, Spalten und Verwerfungen auf, welche den in der Natur vorkommenden Bildungen dieser Art vollkommen entsprachen.
Zur allgemeinen Anerkennung gelangte die auf der Schrumpfungstheorie begründete neuere Lehre der Gebirgsbildung durch Ed. Süß. Ihm gelang es wie keinem anderen Forscher, in einem epochemachenden Werke, das er »Antlitz der Erde« betitelte, die Gebirgsbildung als das Ergebnis eines durch die Zusammenziehung des Erdinnern hervorgerufenen Stauungs- und Faltungsprozesses zu erklären, der ununterbrochen vor sich geht und nicht nur die säkulären Schwankungen großer Teile der Erdrinde, sondern auch die Entstehung der Gebirge, sowie diejenige Klasse von Erdbeben hervorruft, die man als tektonische bezeichnet.
Die Erdbebenforschung wurde überdies nicht nur durch eine bessere ursächliche Begründung der für sie in Betracht kommenden Erscheinungen, sondern vor allem durch die Erfindung zahlreicher, ihren Zwecken dienender Instrumente gefördert, die auf der Grundlage physikalischer Prinzipien über die Richtung, die Stärke und andere Umstände der Erdbeben Aufschluß zu geben vermochten. Der älteste Seismograph leistete nur sehr Unvollkommenes. Er bestand aus einer mit Quecksilber gefüllten Schale, deren Rand eine Anzahl von Rinnen besaß. Unter jeder Rinne war ein seitliches Gefäß angebracht. Wurde der Apparat durch eine Erdbebenwelle[Pg 273] erschüttert, so ließ sich aus der Menge des Quecksilbers, das in die Seitengefäße überfloß, annähernd die Stärke und die Richtung der Welle ermitteln.
Bessere Untersuchungsmethoden ermöglichte die Einführung von Pendelseismographen. Seitdem man solche auf den zahlreichen im Laufe der letzten Jahrzehnte errichteten Erdbebenstationen verwendet, ist man in den Besitz eines reichen Materials über die Häufigkeit, die Dauer und die Verbreitung der Erdbeben, sowie über die Richtung und die Intensität der Stöße, ihre Abhängigkeit von der Beschaffenheit des Bodens, die Geschwindigkeit ihrer Fortpflanzung und zur Kenntnis zahlreicher sonstiger, die seismischen Vorgänge begleitender Umstände gelangt. Trotzdem haben die Bemühungen, die Entfernung des Erschütterungsherdes von der Oberfläche der Erde zu ermitteln, noch nicht zu einem sicheren Ergebnis geführt. Wohl aber gelangte man besonders durch die Untersuchungen von Süß zu der Erkenntnis, daß bei den tektonischen oder Dislokationserdbeben die Erschütterungen immer wieder längs gewisser Linien stattfinden. Offenbar weisen diese Schütterlinien auf Spalten in der Erdkruste hin, längs welcher die ruckweisen Verschiebungen vor sich gehen.
Die Forschung des 19. Jahrhunderts eröffnete, unterstützt durch die Chemie, die Mikroskopie und das Experiment, auch einen klaren Einblick in die mannigfachen geologischen Wirkungen, welche die Pflanzen und die Tiere im Verlaufe eines großen Teiles der Erdgeschichte ausgeübt haben. Schon im 18. Jahrhundert fehlte es nicht an Bemühungen, den pflanzlichen Ursprung der Steinkohlen nachzuweisen. Den Erweis für die Richtigkeit dieser Annahme erbrachte indessen erst der deutsche Botaniker Göppert397. Seine mikroskopischen Untersuchungen lehrten, daß die Steinkohlen aus Gefäßkryptogamen entstanden sind, deren Abdrücke das die Flöze einschließende Gestein erfüllen. Nachdem man später chemische Agentien gefunden, unter deren Behandlung die innere Struktur der Steinkohlendünnschliffe besonders deutlich zutage tritt, wurde das zellige Gefüge der Steinkohle und selbst des Anthrazits überzeugend dargetan. Für einzelne Kohlenflöze wurde auch die Entstehung aus Tangen nachgewiesen, die nach älteren Behauptungen fast ausschließlich das Material für die Bil[Pg 274]dung der Steinkohlen geliefert haben sollten. Die experimentelle Geologie stellte sich auch die Aufgabe, die Steinkohle und das Erdöl nebst den verwandten Mineralkörpern auf künstlichem Wege zu bereiten, um dadurch die Entstehungsursachen aufzuhellen. Als solche wurden vor allem Druck und Sauerstoffmangel erkannt, zu denen häufig noch die Wärme getreten sein wird. So machen z. B. Versuche398, bei welchen Fischtran unter einem Druck von 20 Atmosphären destilliert wurde und ein erdölartiges Produkt lieferte, die Entstehung des Erdöls aus tierischen Substanzen wahrscheinlich.
Zuverlässigere Ergebnisse über die Mitwirkung der Tierwelt bei dem Zustandekommen geologischer Bildungen lieferte Ehrenberg, der durch seine mikroskopischen Untersuchungen die Tätigkeit der kleinsten Lebewesen als ein wichtiges geologisches Agens erkannte. Ausgehend von der Beobachtung, daß das Franzensbader Bergmehl aus den Kieselskeletten untergegangener Diatomeen besteht, hatte Ehrenberg gefunden, daß die Kiesel- und Kalkabscheidungen kleinster pflanzlicher und tierischer Organismen in ungeahnter Ausdehnung an der Zusammensetzung sedimentärer Bildungen teilnehmen.
Zunächst hatte Ehrenberg die durch mikroskopische Organismen entstandenen Süßwasserbildungen ins Auge gefaßt. In einer späteren, uns jetzt beschäftigenden Epoche stellte er sich die Aufgabe, die gesamte Erdoberfläche einerseits nach den im süßen und im Salzwasser vorkommenden Mikroorganismen zu durchforschen, andererseits aber die fossilen, aus ihnen entstandenen Ablagerungen nachzuweisen. Unterstützt wurde Ehrenberg in diesem Beginnen durch den Umstand, daß um 1860, veranlaßt durch die ersten Kabellegungen, die Erforschung der Tiefsee begann. Die ausgesandten Expeditionen beschränkten sich nicht etwa auf Tiefenmessungen, sondern förderten zahlreiche Grundproben zutage. Diese in Federspulen oder in Glasröhren dem Meeresboden entnommenen Proben lehrten einen großen Reichtum organischer Bildungen kennen. Eine umfassende Bearbeitung erfuhren sie durch Ehrenbergs »Mikrogeologische Studien über das kleinste Leben der Meeres-Tiefgründe aller Zonen und dessen geologischen Einfluß399.
Ehrenberg gelangte zu dem Ergebnis, daß dem heute tätigen mikroskopischen Leben ein vorgeschichtliches mikrosko[Pg 275]pisches Leben entsprochen hat, dessen oft sehr mächtige Ablagerungen zuweilen hoch über den Meeresspiegel gehoben wurden und mitunter in den obersten Schichten der höchsten Gebirge noch deutlich erkennbar sind. Ergänzt wurde dieser Nachweis durch die seit 1870 zu rein wissenschaftlichen Zwecken unternommenen Tiefseeforschungen400. Sie ergaben, daß es für das tierische Leben im Ozean nach der Tiefe zu keine Grenze gibt, und daß manche, für frühere geologische Perioden charakteristische, bis dahin für ausgestorben geltende Formen noch jetzt lebend in der Tiefe des Ozeans anzutreffen sind.
Auch in dem Transport der Eismassen lernte die neueste Zeit ein wichtiges geologisches Mittel kennen. Schon im Jahre 1827 hatte ein deutscher Forscher401 nachgewiesen, daß die Findlingsblöcke des norddeutschen Tieflandes skandinavischen Ursprungs seien. Ein Jahrzehnt später wurden ähnliche Bildungen der Alpen auf die Bewegung von Gletschern zurückgeführt402. So gelangte man zur Annahme von Kälteperioden, in denen die Vergletscherung der mittel- und nordeuropäischen Landschaft das heutige Maß weit überschritten haben muß.
Die erste wissenschaftliche Bearbeitung der glazialen Erscheinungen verdanken wir dem großen Alpenforscher H. B. Saussure. Er widmete nicht nur den Gletschern selbst, sondern auch dem von ihnen bewegten Gesteinsmaterial, wie es sich in den Moränen anhäuft, eine gründliche Untersuchung. Vor allem schloß Saussure aus dem Vorkommen von Moränen auf die frühere Ausdehnung der Gletscher und das Zurückschreiten und Vorwärtsgehen der Gletscherenden. Erst viel später (um 1830) erkannte man403, daß auch Schuttmassen, die unzweifelhaft Moränen sind, in großer Entfernung vom Hochgebirge und ohne jede Beziehung zu heute noch vorhandenen Gletschern vorkommen.
Einen großen Aufschwung nahm die Erforschung der Gletscher und der glazialen Bodenverhältnisse in den dreißiger Jahren des 19. Jahrhunderts durch den Schweizer Agassiz404, wie denn über[Pg 276]haupt die Schweiz hinsichtlich der Forscher und auch des Beobachtungsmaterials den Ausgangspunkt für diesen Teil der geologischen Wissenschaft bildete. Nach einer gründlichen Durchforschung der Berner und der Walliser Alpen, bei der Agassiz sich auch auf das von Saussure beigebrachte Beobachtungsmaterial stützen konnte, veröffentlichte er 1840 die erste allgemeine Schilderung der Gletscher und der auf sie zurückzuführenden geologischen Erscheinungen. Vor allem wurden die verschiedenen Arten der Moränen, die Rundhöcker, die Gletscherschliffe, die Gletschermühlen und die erratischen Blöcke als glaziale Bildungen erkannt, während nicht nur Saussure, sondern selbst noch von Buch diese Dinge, soweit sie ihnen schon bekannt waren, auf die Tätigkeit des strömenden Wassers zurückgeführt hatten. Minder glücklich war Agassiz in der Aufstellung der Theorie, die er sich zur Erklärung der geschilderten Phänomene bildete. Er nahm nämlich an, daß sie auf eine Vergletscherung der gesamten Erde, die sogar vor der Erhebung der Alpen stattgefunden haben sollte, zurückzuführen seien. Dagegen gelangte J. v. Charpentier, der manche alpine Studie gemeinsam mit Agassiz unternommen hatte, zu dem Ergebnis, daß die Vergletscherung von Mitteleuropa erst nach der Erhebung der Alpen eingetreten sei, und daß diese Vergletscherung sich keineswegs über die ganze Erde erstreckt, sondern einen mehr lokalen Charakter besessen habe. Trotz dieses Gegensatzes ist beiden Forschern nachzurühmen, daß sie der gleichen induktiven Methode folgten, und daß ihre Arbeiten in den Grundzügen für die späteren Forschungen von der größten Bedeutung geworden ist.
Erst viel später als die diluvialen Bildungen der Alpen wurde das Diluvium Norddeutschlands auf seinen glazialen Ursprung zurückgeführt. Auf den nordischen Ursprung der Findlingsblöcke, die Norddeutschland und das westliche Rußland bedecken, war zuerst besonders überzeugend von Hausmann (1827) hingewiesen worden. Man dachte aber zunächst nicht an eine Vergletscherung, sondern an den Transport durch Wasser und schwimmende Eisschollen. Auf den richtigen Gedanken, daß die Geschiebe und die Blöcke der deutschen und der sarmatischen Tiefebene glazialen[Pg 277] Ursprungs seien, gelangte, unbeeinflußt durch die zunächst nur alpinen Forschungen von Charpentier und Agassiz, der Deutsche Bernhardi405. Seine Ansicht fand jedoch keine Beachtung, und die deutschen Geologen mußten sich erst durch schwedische Forscher, insbesondere durch Torell406, dahin belehren lassen, daß der mehr als dreißig Jahre früher in Deutschland selbst geäußerte Gedanke zutreffend sei.
Ein Problem, bei dessen Bewältigung die Physik der Geologie zu Hilfe kommen mußte, ist die Bewegung der Gletscher. Agassiz hatte noch angenommen, daß das Schmelzwasser nachts in den Haarspalten der Gletschermasse wieder gefriere und daß dadurch ihr Zusammenhang gewahrt bleibe. Die Erscheinung, daß der Gletscher unter Druck sich wie eine scheinbar plastische Masse verhält, während er unter der Wirkung eines Zuges seinen Zusammenhang verliert, wie es die Eiskaskaden zeigen, wurde erst um 1850 aus dem als Regelation bezeichneten Verhalten des Eises und aus der durch Druck erfolgenden Herabsetzung seines Schmelzpunktes erklärt. Als Regelation (Zusammenfrieren) bezeichnete Faraday die von ihm beobachtete Erscheinung, daß Eisstücke mit schmelzenden Oberflächen bei der Berührung wieder zusammenfrieren, auch wenn die Temperatur der Umgebung erheblich über dem Gefrierpunkt liegt. Lag die Temperatur dagegen unter 0°, so fand infolge des Fehlens einer durch Schmelzwasser benetzten Fläche keine Regelation statt. Sie kann jedoch selbst unterhalb des Schmelzpunktes stattfinden, wenn durch den Druck der übereinander geschichteten Eismassen der Schmelzpunkt herabgesetzt und dadurch Schmelzwasser von einer unter dem Nullpunkt liegenden Temperatur gebildet wird.
Zu den fundamentalsten Aufgaben der allgemeinen Geologie gehört auch die Bestimmung der genaueren Gestalt unseres Planeten. Von den Tagen des Eratosthenes bis in das 19. Jahrhundert hinein ließen sich alle, die sich mit dieser Frage befaßten, von der Vorstellung leiten, daß die Gestalt der Erde eine regelmäßige, mathematisch bestimmte sei. Zuerst wurde sie als Kugel, darauf als Rotationsellipsoid (Newton und Huygens) und endlich als dreiachsiges Ellipsoid angesehen. Nachdem die Gradmessungen eine immer größere Ausdehnung gefunden und auf außereuro[Pg 278]päische Länder ausgedehnt waren, hatten sich jedoch Bedenken gegen die Annahme einer vollkommen sphäroidischen Gestalt der Erde geltend gemacht. Man sah immer mehr die Notwendigkeit ein, die bisher ausgeführten Breitengradmessungen durch eine Vermessung der Längengrade zu ergänzen. Triangulationen in zwei senkrecht aufeinander stehenden Richtungen erwiesen sich nämlich als das beste Mittel zur Entscheidung der wichtigen Frage. Es war in erster Linie das Verdienst des preußischen Generals Bayer, daß sich die europäischen Staaten zu einem großen Unternehmen zusammenschlossen, das sich später (Berlin 1886) zu einer internationalen Erdmessung erweiterte. Im Jahre 1863 begann eine Gradmessung in west-östlicher Richtung, die sich von Irland bis tief in das Innere Sibiriens erstreckte. Die Vorstellung einer regelmäßigen Gestalt der Erde mußte jetzt der Erkenntnis weichen, daß unser Planet eine unregelmäßige, von dem Ellipsoid nicht unerheblich abweichende Form besitzt, die man als Geoid bezeichnet hat. Die Aufgabe der Geodäsie besteht seitdem darin, die Punkte der als Geoid bezeichneten Niveaufläche407 einem Normalellipsoid in der Weise zuzuordnen, daß überall die Abweichungen zwischen beiden Flächen ermittelt werden.
Eine weitere Aufgabe der Geophysik bestand in der Wiederaufnahme der im 18. Jahrhundert begonnenen Bestimmung der Erddichte, um aus dieser und dem aus den Vermessungen mit immer größerer Genauigkeit hervorgehenden Rauminhalt der Erde ihre Masse als einen für die Astronomie grundlegenden Faktor zu ermitteln. Als die geeignetste Methode, die Erddichte zu bestimmen, hatte sich das auf der Anwendung der Drehwage beruhende Verfahren von Cavendish erwiesen. Es wurde daher vor allem weiter ausgebildet und lieferte F. Reich den Wert 5,66, der lange als der wahrscheinlichste gegolten hat. Ein neues Verfahren schlug man 1878 ein408. Unter der Schale einer Wage wurde eine das Gleichgewicht störende Masse angebracht und aus dem durch sie bewirkten Ausschlag ihre anziehende Kraft ermittelt. Letztere wurde dann mit der Anziehung der gesamten Erdmasse verglichen. Das Verfahren wurde mehrfach verbessert. Es lieferte im Jahre 1898 für die Erddichte den Wert 5,505.
Um die Schwerkraft zu bestimmen, erwies sich auch die Bestimmung der Länge des Sekundenpendels als ein sehr geeignetes[Pg 279] Mittel, da diese Größe der Erdanziehung direkt proportional ist. Um die Ausbildung dieses Verfahrens hatte sich schon Bessel ein bleibendes Verdienst erworben409. Das Verfahren ist seitdem in solchem Maße vervollkommnet worden, daß sich noch Änderungen der Schwere erkennen lassen, als deren Ursache der Gebirgsbau oder Dichteschwankungen im Innern der Erde angenommen werden müssen.
Nicht solch umgestaltende Änderungen wie die Geologie hat die Mineralogie in der neueren Zeit erfahren, da sie schon im Verlauf der ersten Hälfte des 19. Jahrhunderts ganz auf die exakte Grundlage gestellt wurde. Neben der Forderung der Kristallographie und dem Ausbau der systematischen Mineralogie blieb der neuesten Zeit vor allem die Entdeckung einiger wichtigen Beziehungen zwischen den physikalischen und den morphologischen Eigenschaften, sowie die tiefere Begründung der letzteren vorbehalten. Der erste Versuch, die in der Kristallwelt obwaltenden Formverhältnisse ursächlich zu begründen, ging von dem Deutschen Hessel aus. Dieser Versuch fand seine Fortsetzung durch den Franzosen Bravais.
Hessel410 legte sich die Frage vor, »wieviel und in welcher Anordnung gelegene gleichwertige Teile ein Raumding darbieten kann.« Das heißt, er suchte, von rein geometrischen Gesichtspunkten ausgehend, die sämtlichen möglichen Arten der Symmetrie eines Raumgebildes zu ermitteln. Für die Gebilde, die nach dem Gesetz der Rationalität der Achsenabschnitte411 entstehen, also für die Kristalle, ergab die Untersuchung Hessels 32 allein mögliche Symmetriearten. Spätere Arbeiten über diesen Gegenstand (Bravais,[Pg 280] ohncke) weisen wohl Fortschritte in der Art der Beweisführung auf, in der Sache konnten sie aber über das sofort abschließende Ergebnis der Untersuchung Hessels nicht hinausgehen.
Die ersten Schritte zu einer ursächlichen Begründung der Kristallgestalten rühren, wie wir in früheren Abschnitten erfuhren412, von Hauy her. An Hauy knüpfte der Franzose Bravais an, dem die Arbeiten Hessels kaum bekannt geworden waren. Die grundlegenden Arbeiten von Bravais413 erschienen gegen 1850. Sie wurden, da ihr Inhalt nicht nur geschichtlichen Wert besitzt, sondern auch heute noch für die Theorie der Kristallstruktur von wesentlicher Bedeutung ist, neuerdings ins Deutsche übersetzt und als Teile der Ostwaldschen Sammlung herausgegeben414.
Bravais blieb nicht wie Hessel bei geometrischen Spekulationen stehen, sondern er versuchte die 32 kristallographischen Gruppen, zu denen er gleich jenem gelangt war, mit einer Theorie über den molekularen Aufbau der Kristalle zu verbinden. Sozusagen als Modell eines jeden Kristalls erdachte Bravais ein im Raume nach bestimmten geometrischen Gesetzen gebildetes System von Punkten, ein »Raumgittersystem«. Ein solches System entsteht, wenn man sich drei Scharen von parallelen Ebenen vorstellt und weiterhin annimmt, daß jede Schar unter sich gleiche Abstände hat, während sich die Scharen gegenseitig unter bestimmten Winkeln schneiden. Die so entstehenden, regelmäßig im Raume verteilten Schnittpunkte der drei Scharen, die »Gitterpunkte«, hat man sich nach Bravais mit den Mittelpunkten der den Kristall aufbauenden Moleküle zusammenfallend zu denken.
Aus den Symmetrieverhältnissen, die unter dieser geometrischen Voraussetzung möglich sind, ergaben sich sieben Arten von Raumgittern, d. h. im Raume gesetzmäßig verteilten Punktsystemen. Diese sieben Raumgitter ließen sich den bekannten Kristallsystemen zuordnen. Es war damit eine Beziehung gefunden, die unmöglich als bloßes Spiel des Zufalls gedeutet werden konnte.
Um den weiteren Ausbau der von Hessel und Bravais begründeten Theorie der Kristalle haben sich unter den neueren Forschern besonders Gadolin und Sohncke verdient gemacht.
Ohne die früheren Veröffentlichungen über diesen Gegenstand zu kennen, führte Gadolin415 den Nachweis, daß sich aus dem Gesetz der Rationalität der Achsenverhältnisse nach den Gesetzen der Symmetrie und ohne jede Voraussetzung über den molekularen Aufbau 32 Kristallgruppen ableiten lassen. Diese Gruppen wies er den sechs empirisch gefundenen Kristallsystemen zu. Gadolin bestätigte dadurch zwar nur das schon von anderen Forschern und zwar zuerst von Hessel gefundene, die Kristallwelt beherrschende Prinzip. Seine Ableitungen zeichnen sich aber vor allen übrigen dadurch aus, daß sie am einfachsten und klarsten sind. Aus diesem Grunde ist Gadolins Abhandlung gleichfalls neuerdings in deutscher Übersetzung herausgegeben worden416.
Anknüpfend an Bravais, hat schließlich der deutsche Physiker Sohncke eine Ableitung der Kristallsysteme aus den Symmetrieverhältnissen von Punktsystemen gegeben. Auch für Sohncke bedeutet der »Punkt« einen Massenpunkt oder ein Molekül. Ferner ist die Verteilung der Punkte in einem kristallinischen Punktsystem so zu denken, daß sie um jeden Massenpunkt die gleiche ist wie um jeden anderen. Bravais hatte seine abstrakt mathematische Untersuchung über regelmäßige Punktsysteme auch auf zahlreiche Verhältnisse ausgedehnt, die zur Kristallographie in keiner Beziehung stehen; Sohncke dagegen beschränkte sich darauf417, möglichst einfach a priori nachzuweisen, daß es unter der Voraussetzung der atomistischen Beschaffenheit der Körper nur die bekannten Kristallsysteme und keine anderen geben kann.
Sohnckes Untersuchung ergab kurz folgendes: Es kann nur sieben durch ihre Symmetrieverhältnisse verschiedene Arten von kristallinischen Punkthaufen, d. h. sieben Kristallsysteme, geben und zwar:
Ein Kristallsystem stellt sich somit als die Gesamtheit aller Formen dar, die nicht nur in ihrer äußeren Gestalt, sondern auch in ihrem molekularen Aufbau denselben Grad von Symmetrie besitzen. Als weiteres Ziel der Kristallographie war damit die Aufgabe gesteckt, nicht nur die äußere Gestalt, sondern auch sämtliche physikalischen Eigenschaften als bedingt durch den inneren Aufbau, durch das molekulare Gefüge, nachzuweisen.
Welch ausgedehnte Anwendung die Mathematik auf das Gebiet der Kristallographie gestattet, zeigten vor allem die Arbeiten Sellas419. In einer Abhandlung über das Verknüpfungsgesetz der Kristallformen einer Substanz zeigte er, daß die verschiedenen Formen nicht nur auf Achsen oder auf Zonen zurückgeführt werden können, wie es Naumann und Miller getan,[Pg 283] sondern daß ein dritter Ausdruck für das Grundgesetz der Kristallographie möglich ist. Sella bezog nämlich die Formen einer Substanz auf ein Ellipsoid, dessen konjugierte Durchmesser drei Kristallkanten sind, die in ihrer Länge von einer vierten Fläche des Kristalls begrenzt werden. Sellas Betrachtungsweise erwies sich besonders deshalb als sehr fruchtbar, weil sich auch die physikalischen Eigenschaften der Kristalle auf Ellipsoide zurückführen lassen, so daß von mehreren Forschern (Dana, Brewster) die Moleküle der Kristalle als Ellipsoide hingestellt wurden. In einer anderen Abhandlung420 zeigte Sella, daß sich die kristallographischen Formeln zweckmäßiger als bisher ausdrücken lassen, wenn man die in der Determinantenrechnung gebräuchlichen Bezeichnungen anwendet.
Zur Erkenntnis des Zusammenhanges zwischen der Form und dem optischen Verhalten der Kristalle war man schon während der ersten Jahrzehnte des 19. Jahrhunderts durch die Arbeiten eines Fresnel und Brewster gelangt. Ganz analoge Beziehungen wurden nun hinsichtlich des thermischen und des elektrischen Verhaltens entdeckt. Auch hier ergab sich, daß die regulären Substanzen nach allen Richtungen des Raumes das gleiche Verhalten besitzen, während die Kristalle des tetragonalen und des hexagonalen Systems Verschiedenheiten nach zwei, diejenigen der übrigen Systeme nach drei Richtungen aufweisen. Und zwar gilt dies sowohl hinsichtlich des Ausdehnungskoeffizienten wie der Wärmeleitung. Erhitzt man z. B. eine Kugel von regulärem Steinsalz, so wird sie ihr Volumen vergrößern, ohne ihre Form zu ändern, während eine aus dem hexagonalen Kalkspat hergestellte Kugel zu einem Rotationsellipsoid und endlich derselbe aus dem monoklinen Feldspat hergestellte Körper zu einem dreiachsigen Ellipsoid wird.
Für die schon von Aepinus erforschte Pyroëlektrizität421 ergab sich gleichfalls eine merkwürdige Beziehung. Es stellte sich nämlich heraus, daß die pyroëlektrischen Kristalle hemimorph, d. h. an den entgegengesetzten Enden der Hauptachse, die zu elektrischen Polen werden, durch Flächen verschiedener Formen begrenzt sind. Beziehungen zwischen der chemischen Zusammensetzung und der Gestalt der Mineralien hatte schon Mitscherlich, der Entdecker der Isomorphie, gefunden. Aus der näheren Unter[Pg 284]suchung der isomorphen Substanzen ging hervor, daß es sich, vom regulären Systeme abgesehen, nicht um eine vollkommene Übereinstimmung der Formen, sondern nur um eine sehr große Ähnlichkeit handelt. Als entscheidendes Merkmal für die Isomorphie erkannte man das Vermögen der betreffenden Stoffe, sogenannte isomorphe Mischungen einzugehen, d. h. in homogenen Kristallen zusammen zu kristallisieren. Einer der ersten, der ein Mineral als eine isomorphe Mischung deutete, war Hessel, den wir an anderer Stelle als den Entdecker des kristallographischen Einteilungsprinzips kennen gelernt haben. Er erklärte nämlich422 schon 1826 den Labradorit, einen Kalknatronfeldspat, als eine isomorphe Mischung von Albit (Natronfeldspat) und Anorthit (Kalkfeldspat). In gleichem Sinne hat später Tschermak, auf der Erkenntnis fußend, daß zwischen dem Albit und dem Anorthit ein allmählicher Übergang stattfindet, eine Theorie der Feldspäte entwickelt, welche den Zusammenhang der einzelnen Glieder dieser Mineralgruppe zu erläutern sucht423.
Die Frage nach der Entstehung der Mineralien mußte, wie die Frage nach der Bildung der Gesteine, gleichfalls auf dem Wege des Versuches gelöst werden, was zur Entdeckung zahlreicher künstlicher Nachbildungen führte424. Auch hier hat man der hauptsächlich durch Daubrée vertretenen Gruppe französischer Forscher die hervorragendsten Erfolge zu verdanken.
In der Chemie, deren Entwicklung wir bis zur Begründung der organischen Chemie und der Ausgestaltung der Radikaltheorie verfolgten, erhob sich insbesondere auf Grund derjenigen Vorstellungen, die sich seit Gay-Lussac und Avogadro über die Natur der gasförmigen Verbindungen entwickelt hatten, die heute herrschende Valenztheorie.
Von besonderer Wichtigkeit für diese Umgestaltung war Kekulés Lehre von der Vierwertigkeit des Kohlenstoffs und der Fähigkeit der Kohlenstoffatome durch eine bestimmte Anzahl ihrer vier Affinitäten sich gegenseitig zu binden. Später dehnte Kekulé die von ihm geschaffene Theorie auf die aromatischen Verbindungen aus, für deren Grundsubstanz, das Benzol, er eine ringförmige Verkettung von sechs Kohlenstoffatomen annahm. Durch Kekulés Benzoltheorie wurde nicht nur eine Übersicht über das stetig anschwellende Gebiet der aus dem Teer gewonnenen Stoffe, sondern auch eine Erklärung und Vorhersage zahlreicher Isomeriefälle ermöglicht.
In Anbetracht der grundlegenden Bedeutung dieser Lehren wollen wir Kekulé und seinen Arbeiten über die chemische Natur des Kohlenstoffs eine etwas eingehendere Darstellung widmen. Auch der große Aufschwung, den die technische Chemie zumal in Deutschland während der letzten Jahrzehnte genommen hat, ist zum großen Teil auf diese Arbeiten Kekulés zurückzuführen. »Ich kenne«, sagt Ladenburg425, der Herausgeber von Kekulés Abhandlungen, »kein zweites Beispiel dafür, daß abstrakte wissenschaftliche Erörterungen so unmittelbar für das Leben nutzbar gemacht wurden426«.
August Kekulé wurde 1829 in Darmstadt geboren. Er bezog die Universität Gießen und wurde dort von Liebig so sehr angezogen, daß er sein anfängliches Studium mit dem der Chemie vertauschte. Kekulé folgte dann dem Beispiel seines großen Lehrers und weilte ein Jahr in Paris, wo Dumas, Pasteur, Regnault und andere Führer der Wissenschaft auf ihn wirkten. Seine eigene Lehrtätigkeit begann Kekulé in Heidelberg. Dort entstand die Abhandlung über die Vierwertigkeit des Kohlenstoffs fast zur selben Zeit als Kirchhoff und Bunsen die Spektralanalyse begründeten. Zuletzt und am längsten, vom Jahre 1867 nämlich bis zu seinem 1896 erfolgten Tode, hat Kekulé in Bonn gewirkt.
»Ich halte es«, sagt Kekulé in seiner grundlegenden Abhandlung vom Jahre 1858427, »nicht mehr für die Hauptaufgabe der Zeit, Atomgruppen nachzuweisen, die gewisser Eigenschaften wegen als Radikale betrachtet werden können. Ich glaube vielmehr, daß man die Betrachtung auch auf die Konstitution der Radikale selbst ausdehnen und aus der Natur der Elemente ebensowohl die Natur der Radikale wie die ihrer Verbindungen herleiten soll.« Da für die organischen Verbindungen der Kohlenstoff der wesentlichste Bestandteil ist, so werden naturgemäß von Kekulé zuerst die Eigenschaften dieses Elementes erörtert.
Betrachte man die einfachsten Kohlenstoffverbindungen wie Grubengas, Chloroform, Kohlendioxyd, Blausäure usw., so falle es auf, daß die Menge Kohlenstoff, welche die Chemiker als geringstmögliche, als Atom erkannt hätten, stets 4 Atome eines einwertigen oder zwei Atome eines zweiwertigen Elementes binde. Die Summe der chemischen Einheiten, der mit einem Atom Kohlenstoff verbundenen Elemente sei stets gleich vier, der Kohlenstoff selbst sei also als vierwertig (vieratomig nach dem Ausdruck Kekulés) anzusprechen. Für Substanzen, die mehrere Atome Kohlenstoff enthalten, müsse man annehmen, daß sich die Kohlenstoffatome unter gegenseitiger Bindung eines Teiles ihrer Affinitäten aneinander gelagert hätten. Der einfachste Fall besteht nach dieser Auffassung darin, daß zwei Kohlenstoffatome unter Bindung von zwei Affinitäten die sechswertige Gruppe C2 bilden. Sie wird mit sechs Atomen eines einwertigen Elementes eine Verbindung bilden, z. B. C2H6 d. i. Äthylwasserstoff. Treten mehr als zwei Kohlenstoffatome auf solche Weise zusammen, so wird für jedes weitere Atom[Pg 287] die Valenz der Gruppe um zwei Einheiten erhöht, und es entstehen die bekannten Kohlenwasserstoffe C3H8, C4H10, C5H12, C6H14 usw.
Schon in der Abhandlung vom Jahre 1858428 wies Kekulé darauf hin, daß eine solch einfache Aneinanderlagerung der Kohlenstoffatome zwar eine große Anzahl von organischen Verbindungen, diejenigen der sogenannten Fett- oder Methanreihe nämlich, erkläre, daß aber für viele andere eine dichtere Aneinanderlagerung des Kohlenstoffs angenommen werden müsse. Zu dieser letzteren Gruppe gehören vor allem das Benzol und seine Abkömmlinge. Über die Konstitution dieser Gruppe der aromatischen Verbindungen, wie sie auch genannt werden, gab erst die Abhandlung vom Jahre 1865 Aufschluß.
Seine Arbeit vom Jahre 1858 schloß Kekulé mit den bescheidenen Worten, daß er Betrachtungen dieser Art nur einen untergeordneten Wert beimesse. Da man sich indessen in der Chemie einstweilen mit solchen Zweckmäßigkeitsvorstellungen begnügen müsse, teile er diese Betrachtungen mit, weil sie, wie ihm scheine »einen einfachen Ausdruck für die neuesten Entdeckungen« böten und daher »ihre Anwendung vielleicht das Auffinden neuer Tatsachen vermitteln könne«. Die späteren Strukturchemiker sind sich des hypothetischen Charakters solcher Vorstellungen nicht immer bewußt geblieben.
Gleichzeitig mit Kekulé aber unabhängig von ihm begründete Couper die Strukturchemie, indem er von der Annahme ausging, daß die Kohlenstoffatome sich miteinander zu verketten vermögen429. Couper unterschied zwei Arten chemischer Verwandtschaft, die er als Wahlverwandtschaft und Gradverwandtschaft bezeichnete. Vermöge der Wahlverwandtschaft verbindet sich ein Element,[Pg 288] z. B. Kohlenstoff mit einer Reihe von anderen Elementen mit verschiedener Intensität, so mit Wasserstoff zu CH4, mit Chlor zu CCl4 mit Schwefel zu CS2 usw. Die Gradverwandtschaft dagegen befähigt ein Element von einem zweiten bald mehr bald weniger zu binden. Sie äußert sich nach dem Gesetze von den multiplen Proportionen. So verbindet sich Kohlenstoff mit Sauerstoff nach zwei Verwandtschafts- oder Affinitätsgraden zu CO und CO2.
Nach Couper entspricht das höchste Verbindungsvermögen, das man für den Kohlenstoff kennt, der Zahl vier, während er das Verbindungsvermögen des Sauerstoffs durch zwei ausdrückt. Was dem Kohlenstoff eine »eigenartige Physiognomie« verleihe, sei die Fähigkeit, sich mit sich selbst zu verbinden. Diese Fähigkeit und seine sich mit verschiedener Intensität und in verschiedenen Graden äußernde Verwandtschaft gegen andere Elemente genügt nach Coupers Ansicht, »um alle Eigentümlichkeiten zu erklären, welche die organische Chemie darbietet«. Die Verkettung der Kohlenstoffatome gibt nach Couper vor allem Aufschluß über die wichtige und vor ihm unerklärte Anhäufung von Kohlenstoffatomen in manchen organischen Verbindungen. Um die Struktur der letzteren zu erschließen, nimmt Couper schon eine einfache und eine doppelte Verkettung der Kohlenstoffatome an. So gibt er beispielsweise der Salizylsäure die Formel:
Es war dies der erste Versuch, eine Strukturformel für eine aromatische Verbindung zu entwickeln. Auf den Gedanken, in den aromatischen Verbindungen für die Kohlenstoffatome eine ringförmige Verkettung anzunehmen, ist erst Kekulé gekommen. Dadurch erhielt die Strukturformel der Salizylsäure folgendes Aussehen:[Pg 289] Aromatische Verbindungen.
Die Ähnlichkeit zwischen der Couperschen und der neueren Strukturformel tritt besonders darin hervor, daß in beiden Formeln doppelte neben einfachen Verkettungen der Kohlenstoffatome vorkommen.
Seine Theorie der aromatischen Verbindungen entwickelte Kekulé im Jahre 1865430. Seit der Entdeckung des Benzols, sowie seiner nahen Beziehung zur Benzoësäure hatte man eine Reihe von Substanzen kennen gelernt, die unter sich und mit den beiden genannten Verbindungen eine gewisse »Familienähnlichkeit« besitzen. Man hatte sie des Verhaltens einiger Glieder wegen zur Gruppe der »aromatischen« Verbindungen zusammengefaßt. Kekulé erkannte, daß seine über das Verhalten des Kohlenstoffatoms in den Fettkörpern entwickelten Ansichten auf diese zweite große Gruppe nicht paßten. Ihre Verbindungen waren nämlich an Kohlenstoff verhältnismäßig viel reicher als die Verbindungen aus der Reihe der Fettkörper. Ferner zeigte es sich, daß auch die einfachsten aromatischen Verbindungen, unter ihnen das Benzol, wenigstens sechs Atome Kohlenstoff enthalten. »Diese Tatsachen«, schloß Kekulé, »berechtigen zu der Annahme, daß in allen aromatischen Substanzen eine und dieselbe Atomgruppe oder, wenn man will, ein gemeinschaftlicher Kern enthalten ist, der aus sechs Kohlenstoffatomen besteht«. Innerhalb dieses Kernes seien die Kohlenstoffatome gewissermaßen in engerer Verbindung. An ihn würden sich dann weitere Kohlenstoffatome nach denselben Gesetzen wie bei den Fettkörpern anlagern können. Wie aber ließ sich die atomistische Konstitution dieses Kernes veranschaulichen? Die Vierwertigkeit des Kohlenstoffs und die Annahme, daß ein Teil der Affinitäten dieses Elementes sich gegenseitig sättigen können, mußte auch einer Theorie der aromatischen Verbindungen zugrunde gelegt werden, wenn sie klar und einfach sein sollte.[Pg 290] Sechs Kohlenstoffatome, so war der Gedankengang Kekulés, würden bei einfacher Bindung zu einer offenen Kette vereinigt, wie schon erwähnt, 14 freie Affinitäten besitzen und den Kohlenwasserstoff C6H14 bilden431. Bei doppelter Bindung der Kohlenstoffatome würden nur 4 Valenzen übrig bleiben, da von der Summe der Valenzen (6 . 4 = 24) für die doppelte Bindung 4 . 5 = 20 erforderlich wären. Auch die Annahme, daß die Bindung abwechselnd durch je eine und durch je zwei Verwandtschaftseinheiten erfolge, ergab nicht das erhoffte Resultat, denn es blieben auch dann noch immer acht ungesättigte Affinitäten übrig, während der Benzolkern nur sechs besitzt:
Da kam Kekulé der Gedanke, das Zuviel von zwei Affinitäten, das die soeben dargestellte offene Kette besitzt, durch eine Schließung dieser Kette zum Ausgleich und zum Verschwinden zu bringen. »Macht man«, sagt er, »die Annahme, die beiden Kohlenstoffatome, die am Anfang und am Ende stehen, seien unter sich durch je eine Affinität verbunden, so hat man eine geschlossene Kette oder einen symmetrischen Ring, der noch sechs freie Affinitäten enthält.«
Aus diesem Ringe galt es nun, sämtliche aromatische Verbindungen abzuleiten und auf diese Weise den atomistischen Aufbau des Moleküls, die Konstitution, wie fortan das Schlagwort lautete, zu ergründen.
Zunächst blieb aber noch die Vorfrage zu entscheiden, ob die sechs Wasserstoffatome des Benzols, des Ausgangspunktes für alle aromatischen Verbindungen, unter sich gleichwertig sind, oder ob sie vielleicht, veranlaßt durch ihre Stellung, ungleiche Rollen spielen.
Da es beim Ersatz von Wasserstoff durch ein einwertiges Atom oder Radikal völlig gleichgültig ist, welches der sechs Wasserstoffatome des Benzols ersetzt wird, so entschied sich Kekulé für die erstere Annahme, daß nämlich die Wasserstoffatome des Benzols völlig gleichwertig sind. Die Kekulésche Benzolformel zeigt dementsprechend die sechs Kohlenstoffatome in völlig symmetrischer Weise zu einem Ring verbunden. In bezug auf den Kohlenstoff sind auch die sechs Wasserstoffatome ganz symmetrisch gelagert; sie nehmen im Molekül völlig analoge Plätze ein. Man[Pg 291] kann sich »das Benzol als ein Sechseck vorstellen, dessen sechs Ecken durch Wasserstoffatome gebildet sind«.
Bestätigt wurde diese Auffassung durch die merkwürdigen Isomerieerscheinungen, welche die Abkömmlinge des Benzols zeigen. Die zuerst bekannt werdenden Isomerien hatte man aus einer verschiedenartigen Gruppierung von Atomen zu Radikalen zu erklären vermocht. War doch die Entdeckung der Isomerie und der Wunsch sie zu erklären, das wichtigste Motiv für den Ausbau der Radikaltheorie gewesen. Für zahlreiche, isomere aromatische Verbindungen hatte das bisher geübte Erklärungsverfahren jedoch versagt. Wie sollte man z. B. aus der Radikaltheorie die Existenz von drei Dibrombenzolen (C6H4Br2) erklären? Kekulé gelang dies ohne Schwierigkeit, indem er aus seiner Benzolformel drei Stellungsmöglichkeiten der beiden Bromatome ableitete und dadurch den Begriff der Stellungsisomerie schuf. Nach ihm ist für das Monobrombenzol nur eine Modifikation möglich, da die sechs Wasserstoffatome, von denen eins durch Brom ersetzt werden würde, völlig gleichartig sind. Dagegen sind drei Dibrombenzole denkbar und auch aufgefunden worden. Es kann nämlich das zweite Bromatom dem ersten benachbart sein (ab) oder ihm gegenüber sich befinden (ad) oder endlich die Stelle c einnehmen432. Die Stellungsmöglichkeiten sind damit erschöpft, da af und ae mit ab und ac identisch sind. Für das Tribrombenzol wies Kekulé gleichfalls drei Möglichkeiten nach, nämlich abc, abd und ace.
Die Anregung Kekulés, »wenigstens versuchsweise« Betrachtungen dieser Art in die Chemie einzuführen und dadurch eine geometrische Auffassung anzubahnen, fiel auf fruchtbaren Boden. Zahlreiche umfassende Untersuchungen führten zur Auffindung der von der Kekuléschen Theorie vorausgesehenen Verbindungen und bestätigten gleichzeitig diese Theorie in schönster Weise.
Besonders gilt das von den Arbeiten, die Körner zur Bestimmung des chemischen Ortes in den Benzolderivaten ausführte433.[Pg 292] Zur Erläuterung dieses Problems betrachten wir die nach Kekulés Theorie möglichen drei Isomeriefälle der Disubstitutionsprodukte, z. B. des Dibrombenzols. Ihre Konstitution läßt sich durch folgendes Schema ausdrücken:
Orthoverbindung | Paraverbindung | Metaverbindung. |
Körner stellte sich die Aufgabe, durch Versuche mit den drei Isomeren der Dibrombenzole zu entscheiden, um welche Art der Stellung es sich jedesmal handelt, d. h. bei welchem Dibrombenzol die Bromatome benachbart sind (Orthostellung), bei welchem sie einander gegenüberstehen (Parastellung) und bei welchem Stoff die Metastellung der Bromatome anzunehmen ist. Mit anderen Worten: Es war an den drei bekannt gewordenen, in ihren physikalischen Eigenschaften deutlich unterschiedenen Dibrombenzolen434 zu ermitteln, ob die beiden Bromatome durch ein oder durch zwei Wasserstoffatome getrennt sind, oder ob sie nebeneinander stehen. Körner entschied diese Frage, indem er aus den drei von ihm und anderen Forschern dargestellten Dibrombenzolen Substitutionsprodukte durch Einführung eines dritten Bromatoms oder durch Einführung der Nitrogruppe (NO2) herstellte und für jedes Dibrombenzol untersuchte, wieviel isomere Tribrombenzole oder Nitrodibrombenzole sich daraus ableiten lassen. Zur Erläuterung diene folgendes Schema, in dem wieder der besseren Übersicht halber die Wasserstoffatome des Benzols fortgelassen sind.
Man erkennt sofort, daß für das Paradibrombenzol (1, 4) nur ein Tribenzolderivat möglich ist, da sich beim Eintritt des dritten Bromatoms an Stelle eines der vier Wasserstoffatome immer ein- und dieselbe Verbindung ergibt. Dagegen sind, wie das Schema erkennen läßt, für das Metadibrombenzol (1, 3-Stellung) drei isomere Trisubstitutionsprodukte möglich. Für die Orthoverbindung (1, 2-Stellung) ergeben sich, wie leicht ersichtlich, zwei Möglichkeiten.
Die experimentelle Lösung der Aufgabe bestand also darin, für jedes Disubstitutionsprodukt zu untersuchen, wieviel Trisubstitutionsprodukte sich aus ihm ableiten lassen. Ergab z. B. eins der Dibrombenzole bei der Einführung eines dritten Bromatoms oder auch der Nitrogruppe drei einander isomere Derivate, so war damit erwiesen, dass die beiden Bromatome sich in der Metastellung (1, 3) befinden oder durch ein Wasserstoffatom getrennt sind. Dasjenige Dibrombenzol, für das nur zwei Triderivate existieren, war offenbar das Orthobrombenzol (1, 2-Stellung). Ein Dibrombenzol endlich, aus dem sich nur ein Tribrombenzol darstellen läßt, mußte das Paradibrombenzol sein und zwei Atome oder Atomgruppen in der 1, 4-Stellung enthalten.
Damit war man der Aufgabe, in den inneren Bau der Moleküle einzudringen, einen wesentlichen Schritt näher gekommen, während es noch kurz vor Kekulé und Körner für unmöglich gehalten wurde, die gegenseitige Stellung der Atome in den Molekülen anzugeben.
Mit dem naheliegenden Gedanken, ob die geschlossene Kohlenstoffkette, wie sie sich am Benzol und seinen Derivaten verwirklicht findet, die einzige Art von zyklischer Bindung ist, hat sich gleichfalls zuerst Körner beschäftigt. Auf ihn ist nämlich die Vorstellung zurückzuführen, daß man es in dem Pyridin435, dem Stammkörper zahlreicher Pflanzenalkaloide, mit einer dem Benzol[Pg 294] in seiner Konstitution sehr ähnlichen Verbindung zu tun habe. Das Pyridin ist nach Körner436 ein Benzol, in dem eine CH-Gruppe durch den dreiwertigen Stickstoff ersetzt ist. Die Analogie ergibt sich am deutlichsten durch eine Gegenüberstellung der Formeln:
C6H6 = Benzol C5H5N = Pyridin
Verbindungen von der Art des Pyridins, bei denen sich an der Bildung des Ringes nicht ausschließlich Kohlenstoffatome, sondern die Atome verschiedener Elemente beteiligen, hat man als heterozyklische Verbindungen den eigentlichen Benzolderivaten (auch karbozyklische Verbindungen genannt) gegenübergestellt. Später wurden auch Ringe bekannt, die nur aus Stickstoff (azozyklische Verbindungen) oder aus Kohlenstoff und Schwefel (Thiophen) bestehen. Eine neue Erweiterung erfuhr das Gebiet der zyklischen Verbindungen, als man die Aneinanderlagerung von Ringen kennen lernte. Eins der ersten Beispiele bot das Naphtalin (C10H8) dar, das, wie Graebe 1866 zeigte, gleichsam einen doppelten, aus zwei Benzolkernen zusammengeschweißten Ring darstellt:
Eine ähnliche Konstitution wurde für das gleichfalls in dem Steinkohlenteer, im Knochenöl und als Zersetzungsprodukt der Alkaloide vorkommende Chinolin nachgewiesen. Es steht, wie eine Gegenüberstellung der Formeln erläutert, in derselben Beziehung zum Naphtalin wie das Pyridin zum Benzol:
Naphtalin (C10H8) Chinolin (C9H7N)
Nachdem man das Auftreten von Pyridin und Chinolin bei der Zersetzung der Alkaloide oder Pflanzenbasen kennen gelernt hatte, lag der Gedanke nahe, ausgehend vom Pyridin und Chinolin die Pflanzenbasen synthetisch darzustellen. Die erste derartige Synthese, der viele andere gefolgt sind, gelang Ladenburg im Jahre 1886437. Es gelang ihm, ausgehend vom Pyridin, den 1827 entdeckten, wirksamen Bestandteil des gefleckten Schierlings (Conium maculatum), das Koniin darzustellen438. Zunächst bestanden Zweifel, ob es sich um ein dem natürlichen Koniin völlig entsprechendes Produkt handele. Letzteres ist nämlich optisch aktiv, während das synthetisch erhaltene Produkt die Polarisationsebene des Lichtes nicht dreht. Da man aber durch Pasteurs Untersuchungen über die Weinsäure (s. S. 296) die Erfahrung gemacht hatte, daß eine optisch inaktive Substanz mitunter aus zwei Isomeren von entgegengesetztem Drehungsvermögen besteht, so versuchte Ladenburg eine Trennung der in dem synthetischen Koniin gleichfalls vermuteten Isomeren. Die Trennung gelang, und es zeigte sich, daß die rechtsdrehende Verbindung in allen chemischen, physikalischen und physiologischen Eigenschaften mit dem Giftstoff des gefleckten Schierlings völlig übereinstimmte.
Es ist hier nicht die Aufgabe, auf Einzelheiten einzugehen. Wir müssen uns vielmehr auf die Darstellung der wichtigsten an die Benzoltheorie anknüpfenden Fortschritte beschränken. Sie lassen zur Genüge erkennen, daß die von Kekulé geschaffene Vorstellung von der ringförmigen Verknüpfung der Atome für den weiteren Ausbau der Chemie von ganz hervorragendem Wert gewesen ist.
Mit der Isomerie im engeren Sinne und der von Kekulé nachgewiesenen Stellungsisomerie war die Lehre von der Isomerie chemischer Verbindungen noch nicht zum Abschluß gelangt. Neue Entdeckungen bewirkten eine Erweiterung, die schließlich[Pg 296] zur Ergründung der räumlichen Anordnung der Atome, zur Stereochemie leitete. Zunächst führte das verschiedenartige optische und kristallographische Verhalten von im übrigen allem Anschein nach völlig identischen Verbindungen zu dem Begriff der physikalischen Isomerie. Die grundlegende Untersuchung stellte Pasteur439 an, noch ehe Kekulé die Benzoltheorie geschaffen hatte.
Pasteur suchte – es war um die Mitte des 19. Jahrhunderts – in das Gebiet der Kristallographie einzudringen, um daraus für seine chemischen Untersuchungen Nutzen zu ziehen. Zu diesem Zwecke schlug er einen Weg ein, der auch heute noch jedem Jünger der Wissenschaft als der gangbarste und erfolgreichste nicht dringend genug empfohlen werden kann. Er legte seinen Studien eine ausführliche, anerkannt meisterhafte, kristallographische Untersuchung zugrunde und wiederholte unter stetem Vergleichen alle Messungen der Originalarbeit. Es handelte sich um die Weinsäure und ihre Salze440. Auch diesmal zeigte es sich, daß das Studium bedeutender Originalarbeiten nicht nur ein vortreffliches Unterrichtsmittel, sondern vor allem auch ein Forschungsmittel, eine »Fundgrube von Anregungen und fordernden Gedanken« ist441. Während seiner Arbeit beobachtete Pasteur, daß seinem Lehrmeister eine wichtige Tatsache entgangen war. Bei allen weinsauren Salzen bemerkte er nämlich Andeutungen von hemiëdrischen Flächen. Neben der Weinsäure hatte die von Pasteur nachgeprüfte, ältere Arbeit auch auf eine Abart der Weinsäure, die Paraweinsäure oder Traubensäure, Rücksicht genommen. Als Pasteur die Salze dieser Säure prüfte, fand er, daß keins derselben hemiëdrisch ist. Einen weiteren Unterschied hatte vor Pasteur schon Mitscherlich gefunden. Eine Lösung von weinsaurem Salz lenkt nämlich die Polarisationsebene ab. Das traubensaure Salz ist dagegen optisch inaktiv. Mitscherlich hatte behauptet, die Salze beider Säuren seien in ihrer Zusammensetzung und in ihren übrigen physikalischen Eigenschaften völlig analog. Offenbar hatte auch er übersehen, welche Rolle die Hemiëdrie bei diesen Salzen spielt.
Pasteur fand den Schlüssel zu diesem Rätsel. Er wies nach, daß die Traubensäure, die sich dem polarisierten Lichte gegen[Pg 297]über inaktiv verhält, in zwei Abarten zerlegt werden kann, welche die Polarisationsebene des Lichtes im entgegengesetzten Sinne drehen442. Er fand nämlich, daß die Salze dieser links- und rechtsdrehenden Säuren zwar isomorph sind, aber Kristalle bilden, die sich hinsichtlich der Lage gewisser Flächen wie Spiegelbild und Gegenstand verhalten, also nicht zur Deckung gebracht werden können. Durch die sorgfältige Trennung dieser rechts- und linkshemiëdrischen Kristalle (siehe Abb. 43) wurde Pasteur zur Entdeckung der zusammengesetzten Natur der Traubensäure geführt.
»Ich trennte«, schildert Pasteur seine Entdeckung, »sorgfältig die rechtshemiëdrischen Kristalle von den linkshemiëdrischen und beobachtete ihre Lösungen jede für sich im Polarisationsapparat. Da sah ich mit ebenso großer Überraschung wie Freude, daß die rechtshemiëdrischen die Polarisationsebene nach rechts, die linkshemiëdrischen sie nach links drehten. Nahm ich ferner eine gleiche Menge beider Kristalle, so war die aus ihnen bereitete Lösung inaktiv, offenbar infolge des Ausgleiches der beiden gleichen aber in entgegengesetztem Sinne wirkenden Drehungen.« Machte sich in dem Salze eine solche Verschiedenheit bemerkbar, so ließ sich auch eine Doppelnatur der Säure vermuten. Und wirklich lenkte diejenige Traubensäure, die man aus dem rechtshemiëdrischen Salz erhielt nach rechts, die andere dagegen nach links ab. Pasteurs Untersuchungen über die Isomerie der Weinsäure waren 1853 zu einem vorläufigen Abschluß gelangt. Sieben Jahre später waren die Vorstellungen ausgereift, die Pasteur zur Erklärung der von ihm entdeckten Tatsachen entwickelte, Vor[Pg 298]stellungen die, wie jene Tatsachen selbst, van't Hoff und anderen Forschern das Fundament für eine »Chemie im Raume« geboten haben443.
Der Gedankengang, der Pasteur auf seine Vorstellungen leitete, war der folgende. Alle räumlichen Gebilde sind entweder symmetrisch, wie der menschliche Körper und eine gerade Treppe, oder sie besitzen keine Symmetrieebene, sie sind asymmetrisch. Beispiele hiefür sind die gewundene Treppe, die Hand und vor allem die Dinge, welche hier in Frage kommen, nämlich die links- und die rechtshemiëdrischen Kristalle der Weinsäure. Und nun richtet sich Pasteurs Blick von dem Makroskopischen auf das unsichtbar Kleine, von dem wir zwar keine unmittelbare Anschauung haben, wohl aber uns Vorstellungen machen können, ja machen müssen, wenn wir die Natur erklären wollen. Wenn wir uns jedes Molekül als eine Gruppe von Atomen vorstellen, die zu einander in einer bestimmten Anordnung stehen, dürfen wir dann nicht auch annehmen, fragt Pasteur, daß die Natur in den Atomgruppen, aus welchen sie die Moleküle aufbaut, gleichfalls die eine oder die andere jener Kategorien der räumlichen Anordnung befolgt hat? Durch solche Betrachtungen angeregt hat Pasteur eine Theorie der molekularen Asymmetrie aufgestellt, welche die in Frage stehenden Erscheinungen erläutert444. Das Molekül der Rechts-Weinsäure z. B., wie es auch sonst beschaffen sein mag, ist asymmetrisch, und zwar von einer Asymmetrie, die sich mit ihrem Spiegelbilde nicht deckt. Das Molekül der Links-Weinsäure weist die entgegengesetzte Lagerung der Atome auf. Für das Vorhandensein der molekularen Asymmetrie gab es nach dem dermaligen Stande der Kenntnisse zwei Anzeichen, die zu jener Theorie geführt haben und umgekehrt aus ihr erklärt werden. Diese äußeren Anzeichen sind das optische Drehungsvermögen und die eigenartige Hemiëdrie der Kristalle.
Weiter ausgeführt und bestimmter gestaltet wurden die von Pasteur geschaffenen Vorstellungen über die Symmetrie und die Asymmetrie der Moleküle durch van't Hoff, Wislicenus und[Pg 299] andere Forscher. Denkt man sich mit van't Hoff und Le Bel445 die vier Affinitäten des Kohlenstoffatoms nach den Ecken eines Tetraeders geordnet, so ergeben sich für den Fall, daß sämtliche Affinitäten durch vier verschiedene Atome oder Atomgruppen gesättigt sind, zwei voneinander abweichende Kombinationen, die nicht zur Deckung gebracht werden können (siehe Abb. 44), sondern sich, gleich jenen Kristallen der links- und rechtsdrehenden Weinsäure, wie Bild und Spiegelbild verhalten. Solche Verbindungen wurden dann allgemein als stereoisomer bezeichnet.
Während es sich in dem durch Pasteur, van't Hoff und Wislicenus erschlossenen Gebiete um eine Ausdehnung der geometrischen Betrachtungsweise auf die Verkettung der Atome handelte, führten die mit immer größerer Schärfe ausgeführten Bestimmungen der Atomgewichte zu Versuchen, zwischen den erhaltenen Zahlen arithmetische Beziehungen zu finden. Wenn wir von der verfehlten Hypothese Prouts absehen, so begegnet uns der erste Versuch dieser Art im Jahre 1829 bei dem Deutschen Döbereiner446. Letzterer wies darauf hin, daß das Atomgewicht des Broms das arithmetische Mittel der Atomgewichte von Chlor und Jod sei und suchte auch die übrigen Elemente zu solchen Gruppen, die er als Triaden bezeichnete, zusammenzufassen. Angeregt wurde Döbereiner durch Berzelius' Versuche zur Bestimmung der Atomgewichte der Salzbildner (Chlor, Brom, Jod). Berzelius hatte für das Brom 78,38 gefunden. Das Mittel der Atomgewichte von Chlor und Jod, (35,4 + 126,4)/2, ergab 80,47.[Pg 300] Döbereiner nahm an, daß die nicht unbeträchtliche Differenz bei künftigen scharfen Bestimmungen der Atomgewichte ganz verschwinden werde. Er dehnte seine Betrachtungen auf die alkalischen Erdmetalle (Ca, Sr, Ba), auf die Alkalien (Li, Na, K) und die drei einander so ähnlichen Elemente Schwefel, Selen und Tellur aus. Für diese Gruppe ergab die Berechnung des mittleren Wertes
(32,23 (S) + 129,24 (Te))/2 = 80,7 (Se)
nur eine sehr geringe Abweichung von dem empirisch ermittelten Atomgewicht (Se = 79,26). Eisen, Mangan und Chrom, sofern sie dreiwertig auftreten und Sesquioxyde bilden, wurden zur dreigliedrigen Gruppe der »erzmetallischen Alaunbildner« vereinigt. Auf diese Weise gelangte Döbereiner zu der Annahme, daß die »Trias (Dreizahl) ein Gesetz für alle Gruppen chemischer Stoffe« sei.
Durch Döbereiners Betrachtungen wurde mit einem gewissen Erfolg das deduktive Element in die Chemie eingeführt. Döbereiner nahm z. B. an, daß für das Tellur neben der Oxydationsstufe TeO2 die höhere Stufe TeO3 existieren müsse, analog dem von Mitscherlich entdeckten Selentrioxyd und dem von ihm selbst zuerst dargestellten Schwefeltrioxyd. Wußte Döbereiner zwei ähnlichen Grundstoffen keinen dritten anzugliedern, so schloß er aus seiner Theorie, daß weiteres Forschen zur Auffindung jenes dritten Elementes und zu seiner Einreihung in die ihm zukommende Stelle führen werde.
Ein besonderes Interesse wandte Döbereiner den im Platinerz enthaltenen Metallen zu. Er ordnete Platin, Palladium, Rhodium, Iridium, Osmium und das ihm selbst zweifelhafte Pluran, an dessen Stelle später das Ruthenium getreten ist, nach ihren Atomgewichten in zwei Gruppen. Zur ersten stellte er Platin, Iridium und Osmium. Es ist nämlich nahezu447 (Pt = 194,3, Ir = 192,5, Os = 190,3) das Mittel aus den Atomgewichten des Platins und des Osmiums gleich demjenigen des Iridiums.
Döbereiners Bemühungen, eine chemische Systematik zu begründen, fanden bei den Zeitgenossen nicht die verdiente Beachtung. Einmal waren die Tatsachen, auf denen sich das chemische System aufbauen sollte, noch zu unsicher und unzulänglich. Vor allem aber nahm die Beschäftigung mit der[Pg 301] organischen Chemie, der Wöhler durch seine Abhandlung über die Synthese des Harnstoffs gerade einen ganz außerordentlichen Impuls gegeben hatte, das Interesse der Chemiker so sehr in Anspruch, daß alle übrigen Fragen zunächst zurücktraten.
Einen weiteren Schritt auf der von Döbereiner eingeschlagenen Bahn verdanken wir dem genialen Begründer der modernen Hygiene, Max Pettenkofer.
Pettenkofer448 machte zuerst auf die Gleichheit der Differenzen innerhalb der verschiedenen Gruppen von chemischen Elementen aufmerksam. Ein auffallendes Verhältnis, sagte Pettenkofer, gebe sich kund, wenn man die Differenzen der Atomzahlen einzelner natürlicher Gruppen der Metalle und der nichtmetallischen Elemente vergleiche. Es zeige sich nämlich, daß diese Differenzen nahezu Multiplen einer und derselben Zahl seien. Den Nachweis dieser Regelmäßigkeit suchte Pettenkofer zunächst für die Alkalimetalle, die Metalle der alkalischen Erden, die Chrom- und die Schwefelgruppe zu führen. Als Differenzzahl glaubte er für diese Gruppen die Zahl 8 annehmen zu können. Nach der Berichtigung der Atomgewichte durch spätere Forscher kamen die von Pettenkofer für seine Differenzen angenommenen Zahlenwerte zwar nicht mehr in Frage, dennoch enthält sein Versuch die ersten Keime des natürlichen Systems der Elemente, das auf der Gleichheit der Differenzen in den verschiedenen Gruppen beruht.
Fast zur selben Zeit beschäftigte sich auch der Engländer Gladstone mit diesem Gegenstande449. Er ist wahrscheinlich der erste, der auf den Gedanken gekommen ist, die Atomgewichte sämtlicher Elemente nach der Größe ihrer Zahlenwerte zu ordnen. Es schien ihm nämlich kein Zufall zu sein, daß bei dieser Anordnung die Zahlenwerte an manchen Stellen große Lücken zeigten, während sie sich an anderen zusammendrängten. So befestigte sich immer mehr die Ansicht, daß ein gemeinschaftliches[Pg 302] Band in den Atomgewichten der Elemente seinen Ausdruck finde. Einen Gegner fanden diese Bemühungen in Berzelius, der nach seinem Siege über die Anhänger der Proutschen Hypothese jede Spekulation von diesem Gebiete fernzuhalten strebte.
Die eigentliche Begründung eines Systems der Elemente fällt in den Beginn der sechziger Jahre des neunzehnten Jahrhunderts. Sie ist an die Namen Lothar Meyer und Mendelejeff geknüpft.
Lothar Meyer erwarb sich hervorragende Verdienste um die theoretische und um die physikalische Chemie. Ein grundlegendes Werk für diese Gebiete gab er im Jahre 1864 unter dem Titel »Die modernen Theorien der Chemie« heraus. Die regelmäßigen Beziehungen, welche die oben erwähnten und andere Forscher zwischen den Atomgewichten der verschiedenen Elemente aufgefunden hatten, führten Meyer auf die Frage, ob nicht »unsere Atome selbst wieder Vereinigungen von Atomen höherer Ordnung« seien. Ein Analogon boten die Molekulargewichte gewisser Reihen von organischen Verbindungen. So unterscheiden sich die zu derselben Gruppe gehörigen Kohlenwasserstoffe Methan (CH4), Äthan (C2H6) und Propan (C3H8) in ihrem Molekulargewicht jedesmal um den Wert 14 (CH2), während die drei so ähnlichen Metalle Lithium, Natrium und Kalium in ihren Atomgewichten die Differenz 16 wiederkehren lassen. Meyer prüfte eine Anzahl von Gruppen chemisch ähnlicher Elemente nach diesem Gesichtspunkt450, so die Stickstoffgruppe (N, P, As, Sb, Bi), die Sauerstoffgruppe (O, S, Se, Te), die Natriumgruppe (Li, Na, K, Rb, Cs) und andere mehr.
Eine bestimmte Gesetzmäßigkeit in den Zahlenwerten der Atomgewichte ließ sich aus dieser Untersuchung Meyers vom Jahre 1864 ganz offenbar ersehen. Auch durfte Meyer annehmen, daß noch vorhandene Abweichungen durch schärfere Bestimmungen der Atomgewichte beseitigt werden würden. Doch warnte er selbst eindringlich vor dem so oft begangenen Fehler, empirisch gefundene Werte einer angenommenen Gesetzmäßigkeit wegen willkürlich zu korrigieren. Man müsse vielmehr in solchem Falle durch das Experiment genauer bestimmte Werte an die Stelle der früheren setzen. Diese Erwägung führte ihn zu einer sorgfältigen Nachprüfung aller vorhandenen Angaben über die Atomgewichte, eine Arbeit, deren er sich in Gemeinschaft mit Seubert unterzog. Zur Aufstellung eines, sämtliche damals bekannten Elemente um[Pg 303]fassenden Systems gelangte Meyer im Jahre 1868. Ein Jahr später formulierte er das Gesetz, das dem natürlichen System der Elemente zugrunde liegt, mit folgenden Worten: »Die Eigenschaften der Elemente sind großenteils periodische Funktionen des Atomgewichtes«. D. h. dieselben oder ähnliche Eigenschaften kehren wieder, wenn das Atomgewicht um eine gewisse Größe gewachsen ist. Unabhängig von Lothar Meyer gelangte der russische Forscher Mendelejeff zu dem gleichen Ziele. In seiner Abhandlung vom Jahre 1869 »Über die Beziehungen der Eigenschaften zu den Atomgewichten der Elemente« wurden 63 Grundstoffe nach zunehmenden Atomgewichten in vertikalen Reihen so geordnet, daß die Horizontalreihen zu einer Gruppe gehörende Elemente enthielten451.
Aus dieser Zusammenstellung zog Mendelejeff eine Anzahl von allgemeineren Folgerungen, die er in späteren Arbeiten eingehender begründete. Vor allem wies er schon damals darauf hin, daß sein natürliches System die Entdeckung einer Anzahl neuer Elemente vorhersehen lasse.
Die ausführlichste Darstellung des natürlichen Systems gab Mendelejeff in seiner berühmt gewordenen großen Abhandlung vom Jahre 1871, welche unter dem Titel »Die periodische Gesetzmäßigkeit der chemischen Elemente« erschien452. Neben den charakteristischen qualitativen Eigenschaften der Elemente, für die es bislang kein Mittel der Messung gibt, stehen die meßbaren Eigenschaften. Für zwei derselben stand Mendelejeff ein reichhaltiges Material zu Gebote, nämlich für das Atomgewicht und die Valenz oder die Wertigkeit. Die Vorstellungen über das Atomgewicht hatten seit der Anwendung der Avogadroschen Regel und des Gesetzes von Dulong und Petit453 über die Atomwärme eine große Festigkeit erlangt. Mendelejeff konnte deshalb wohl betonen, der Begriff Atomgewicht als kleinster Teil eines Elementes, der in einem Molekül seiner Verbindungen enthalten ist, werde sich unter allem Wechsel in den theoretischen Vorstellungen erhalten. Als nächstliegendes Ziel der Chemie erkannte er die Aufgabe, die Eigenschaften der Elemente, die meßbaren sowohl wie die mehr qualitativen, in ihren Beziehungen zu den Atomgewichten zu erforschen. Dieser Aufgabe widmete sich[Pg 304] Mendelejeff seit dem Jahre 1858. Das Ergebnis seiner Bemühungen war das periodische Gesetz, das er in einer Fassung aussprach, die sich mit dem von Lothar Meyer gefundenen Ausdruck fast vollkommen deckte. »Die Eigenschaften der Elemente und der aus ihnen zusammengesetzten Körper«, sagt Mendelejeff, »befinden sich in periodischer Abhängigkeit von den Atomgewichten«.
Zum Beweise stellte er zunächst sämtliche Elemente, deren Atomgewicht zwischen 7 und 36 liegt, in arithmetischer Folge zusammen. Es ergab sich folgende Reihe:
Li (7); Be (9,4); B (11); C (12); N (14); O (16); Fl (19).
Na (23); Mg (24); Al (27,3); Li (28); P (31); S (32); Cl (35,5).
In dieser sind das erste und achte, das zweite und neunte, das dritte und zehnte Glied ähnliche Elemente von derselben Wertigkeit. Wie die chemischen so wiederholen sich auch die physikalischen Eigenschaften. Die ersten beiden Gruppen (Li Na; Be Mg) haben einen ausgesprochen metallischen Charakter, die letzten (Fl Cl; O S) den ausgeprägtesten metalloidischen. Die übrigen Gruppen bilden Übergänge.
Die von Mendelejeff gegebene Anordnung sämtlicher Elemente zeigt uns die folgende Tabelle.
Es erscheinen darin die sieben, soeben in die erste Reihe gestellten Grundstoffe Li, Be, B, C, N, O, F als typische Repräsentanten von sieben natürlichen Gruppen. Die Zusammensetzung der Oxyde und der Wasserstoffverbindungen läßt erkennen, daß die Valenz von der ersten bis zur vierten Gruppe steigt, um dann bis zur siebenten ebenso regelmäßig wieder abzunehmen. Eine Reihe von Zwischengliedern, die keiner der sieben ersten Gruppen zugewiesen werden konnten, bilden eine achte selbständige Gruppe. Das Element Wasserstoff nimmt als Grundtypus die Spitze des Systems und damit eine gesonderte Stellung ein.
Reihen | Gruppe I. – R2O |
Gruppe II. – RO |
Gruppe III. – R2O3 |
Gruppe IV. RH4 RO2 |
Gruppe V. RH3 R2O5 |
Gruppe VI. RH2 RO3 |
Gruppe VII. RH R2O7 |
Gruppe VIII. – RO4 |
1 | H = 1 | |||||||
2 | Li = 7 | Be = 9,4 | B = 11 | C = 12 | N = 14 | O = 16 | F = 19 | |
3 | Na = 23 | Mg = 24 | Al = 27,3 | Si = 28 | P = 31 | S = 32 | Cl = 35,5 | |
4 | K = 39 | Ca = 40 | – = 44 | Ti = 48 | V = 51 | Cr = 52 | Mn = 55 | Fe = 56, Co = 59, Ni = 59, Cu = 63 |
5 | (Cu = 63) | Zn = 65 | – = 68 | – = 72 | As = 75 | Se = 78 | Br = 80 | |
6 | Rb = 85 | Sr = 87 | ?Yt = 88 | Zr = 90 | Nb = 94 | Mo = 96 | – = 100 | Ru = 104, Rh = 104, Pd = 106, Ag = 108 |
7 | (Ag = 108) | Cd = 112 | In = 113 | Sn = 118 | Sb = 122 | Te = 125 | J = 127 | |
8 | Cs = 133 | Ba = 137 | ?Di = 138 | ?Ce = 140 | – | – | – | – – – – |
9 | (–) | – | – | – | – | – | – | |
10 | – | – | ?Er = 178 | ?La = 180 | Ta = 182 | W = 184 | – | Os = 195, Ir = 197, Pt = 198, Au = 199 |
11 | (Au = 199) | Hg = 200 | Tl = 204 | Pb = 207 | Bi = 208 | – | – | |
12 | – | – | – | Th = 231 | – | U = 240 | – | – – – – |
Mendelejeffs großes Verdienst war es, daß er dem
chemischen System eine erhöhte Bedeutung beilegte. Es galt ihm
nicht als bloßes Mittel zur übersichtlichen Gruppierung und zum
leichteren Erfassen der verschiedenartigen Tatsachen. Er erblickte
vielmehr die wichtigste Aufgabe der Systematik darin, daß sie
imstande sei, neue Analogien aufzudecken und neue Wege zur
Erforschung der Elemente anzubahnen. Mendelejeff mußte
z. B. in seinem System für bis dahin unentdeckte Glieder
Lücken frei lassen. Er sagte aber die Eigenschaften dieser[Pg 305]
[Pg 306]
Glieder aus der ihnen zugeschriebenen Stellung bis ins einzelne
voraus454. Mit Recht betrachtete Mendelejeff dieses kühne
Unterfangen als einen weiteren »vollkommen klaren, wenn auch
nur in Zukunft möglichen Beweis von der Richtigkeit des periodischen
Gesetzes«. Als er seine Tafel aufstellte, fehlten zwei
Elemente zwischen Zink (Atomgewicht = 65) und Arsen (Atomgewicht
= 75). Diese Lücke wurde dadurch ausgefüllt, daß
man im Jahre 1875 das Gallium455 und zehn Jahre später das
Germanium456 mit allen von Mendelejeff vorausgesagten Eigenschaften
entdeckte. Nachstehende Tafel läßt erkennen, bis zu
welchem Grade die Vorhersage des russischen Forschers sich bezüglich
des Germaniums als zutreffend erwiesen hat.
Voraussagungen | Befunde |
Atomgewicht 72 | 72,3 |
Spezif. Gewicht 5,5 | 5,47 |
Oxyd MO2 | GeO2 |
Spezif. Gewicht des letzteren 4,7 | 4,703 |
Chlorid MCl4. | GeCl4 |
Siedepunkt des Chlorids unter 100° | 86° |
Fluorid MF4 | GeF4 |
Äthylverbindung M(C2H5)4 | Ge(C2H5)4 |
Siedepunkt der letzteren 160° | 160° |
In einigen Fällen sah sich Mendelejeff veranlaßt, kleine Änderungen in der Reihenfolge der Elemente im Gegensatz zu den damals als gültig anerkannten Atomgewichtsbestimmungen vorzunehmen. Spätere Nachprüfungen führten dann zu einer zweiten glänzenden Bestätigung des periodischen Gesetzes, indem sich die von Mendelejeff im Widerspruch mit den damals geltenden Atomgewichten vorgenommenen Umstellungen als den wahren Werten entsprechend erwiesen.
Welches ist nun die Ursache des so merkwürdigen periodischen Gesetzes? Daß die Grundstoffe ihren Namen mit Recht tragen, ist danach sehr zweifelhaft. Es ist nicht jeder eine Welt für sich, wie man früher wohl glaubte, sondern sie bilden ein gesetzmäßig ver[Pg 307]knüpftes Ganzes. Welch großartiges Problem bietet sich hier der Forschung dar! Darf man doch hoffen, daß sich der Erkenntnis von der Einheit der Energie die Zurückführung der bunten Schar der Elemente auf einen einzigen Urstoff hinzugesellen wird, zumal nachdem die neuesten Ergebnisse der Radiumforschung die Umwandlung eines Elementes in ein anderes dargetan haben.
Dem Grenzgebiete zwischen der Chemie und der Physik gehört die aus den Forschungen eines Fraunhofer, Brewster, Bunsen und Kirchhoff hervorgegangene Spektralanalyse an. Als ihre eigentlichen Schöpfer sind die beiden zuletzt genannten Männer zu betrachten.
Der erste, der die Flammenfärbung zur Erkennung von Metallsalzen benutzte, war der deutsche Chemiker Marggraf457. Er unterschied auf diesem Wege die Natrium- von den Kaliumverbindungen. Auf den Gedanken, das Licht gefärbter Flammen gleich dem Sonnenlichte durch das Prisma zu zerlegen, war man gleichfalls schon im 18. Jahrhundert gekommen.
Auch die Veränderungen, welche das Licht erleidet, wenn es der absorbierenden Wirkung verschiedener Substanzen unterworfen wird, hatte man durch die prismatische Zerlegung des Lichtes kennen gelernt. So fand Brewster458, nachdem das Licht durch eine Schicht salpetriger Säure gegangen war, in dem Spektrum viele hundert schwarze Streifen, die auf eine völlige Absorption des Lichtes an den betreffenden Stellen hindeuteten, obgleich das Gas nur schwach gefärbt war und dem Lichte fast ungehinderten Durchgang zu gestatten schien. Ähnliche Streifen hatte der Engländer Wollaston459 wahrgenommen, als er das Sonnenspektrum hinter einem schmalen Spalt erzeugte. Diese Tatsache wurde von Wollaston jedoch nicht weiter verfolgt. Sie blieb vereinzelt und mußte von dem deutschen Optiker Fraunhofer mehr als ein Jahrzehnt später von neuem entdeckt werden.
Fraunhofers Lebensbild bietet dadurch ein besonderes Interesse, daß es zeigt, wie sich durch die Verkettung von Ver[Pg 309]stand, Ausdauer und Glück ein Menschenleben von ungewöhnlicher Bedeutung aus den bescheidensten äußerlichen Verhältnissen heraus entwickeln kann.
Joseph Fraunhofer wurde 1787 in Bayern als zehntes Kind eines armen Glasarbeiters geboren. Er kam zu einem Glasschleifer in die Lehre. Als eines Tages das Haus seines Lehrherrn einstürzte, wurde Fraunhofer unverletzt unter den Trümmern hervorgezogen. Diese Fügung lenkte die Aufmerksamkeit einiger Menschenfreunde auf ihn. Fraunhofer wurde als Optiker in ein optisch-mechanisches Geschäft aufgenommen. Dort verstand er es, sich in kurzer Zeit zu einer leitenden Stellung emporzuarbeiten. Er verbesserte die Fabrikationseinrichtungen, erfand die Herstellung von Glasarten, die nahezu frei von Schlieren waren, kurz, er wirkte bald bahnbrechend auf allen Gebieten der praktischen und befruchtend auf dem der theoretischen Optik. Auch die Astronomie ist ihm zu Dank verpflichtet, da es ihm gelang, dem achromatischen Fernrohr einen ungeahnten Grad der Vollkommenheit zu verleihen. Mit Recht hat man daher auf seinen Grabstein die Inschrift »Approximavit sidera«460 gesetzt. Fraunhofer starb 1826, nachdem er noch nicht das vierzigste Lebensjahr vollendet hatte.
Fraunhofer hatte bei seiner Untersuchung461 des Spektrums zunächst Aufgaben der praktischen Optik im Auge. Für die Berechnung der achromatischen Fernrohre ist nämlich eine genaue Kenntnis des Brechungs- und Farbenzerstreuungsvermögens der zur Anwendung kommenden Glasarten erforderlich. Fraunhofer suchte deshalb nach zuverlässigen Methoden, um das Brechungs- und Zerstreuungsvermögen von Glassorten zu ermitteln. Anfangs bemühte er sich, die Größe der Farbenzerstreuung aus der Größe des Spektrums festzustellen, das ein Prisma von bekanntem Brechungswinkel in einem verfinsterten Zimmer in bestimmter Entfernung gab. Da indessen die Grenzen des Farbenbandes sich nicht scharf genug ermitteln ließen, erhielt Fraunhofer[Pg 310] auf diesem Wege nur ungenaue Resultate. Aus dieser Verlegenheit gelangte er mit einem Schlage heraus, als sich seine Aufmerksamkeit auf einen hellen, scharf begrenzten Streifen richtete, der sich im Spektrum einer Öllampe oder eines Talglichtes zwischen der roten und der gelben Farbe zeigte und der, wie wir jetzt wissen, von einem Natriumgehalt dieser Substanzen herrührt. Dieser helle Streifen befand sich stets an derselben Stelle des Spektrums, so daß er als Vergleichspunkt für die verschiedenen Glasarten dienen konnte.
Es lag nun der Gedanke nahe, nach einem ähnlichen, scharf hervortretenden Vergleichsobjekt im Sonnenspektrum zu suchen. Anstatt eines solchen erblickte Fraunhofer aber mit dem bewaffneten Auge zu seiner großen Überraschung fast unzählig viele, starke und schwache, vertikale dunkle Linien. Verbreiterte er den Spalt, durch den das Sonnenlicht auf das Prisma fiel, so wurden die Linien undeutlich. Endlich verschwanden sie ganz, was er daraus erklärte, daß bei einer breiteren Öffnung das Licht nicht mehr als ein Strahl anzusehen sei. Fraunhofer überzeugte sich, indem er verschiedene brechende Medien wählte, daß die später nach ihm benannten Linien wirklich in der Natur des Sonnenlichtes ihren Grund haben und nicht etwa durch Beugung hervorgerufen werden oder gar auf einer Sinnestäuschung beruhen. Ließ er das Licht einer Lampe durch die schmale Öffnung fallen, so zeigte sich nämlich keine derartige Linie, während das von der Venus ausgehende Licht sie alle enthielt – gleichzeitig ein Beweis, daß ein Planet im reflektierten Sonnenlicht erglänzt. In den Spektren der Fixsterne entdeckte Fraunhofer gleichfalls Streifen. Doch stimmten diese Streifen, was Lage und Beschaffenheit betraf, mit den Linien des Sonnenspektrums nicht überein. Auch schienen ihm die Fixsternspektren unter sich Verschiedenheiten aufzuweisen. So fand er im Spektrum des Sirius drei breite Streifen, durch welche sich dieses Spektrum von dem der Sonne auffallend unterschied. Die stärksten Linien des Sonnenspektrums, die später wieder in Gruppen von Linien aufgelöst wurden, bezeichnete Fraunhofer durch große Buchstaben (siehe Abb. 45). A befindet sich im Rot, H im Violett, D an der Grenze von Orange und Gelb usw.
In dem Raum zwischen B und C zählte Fraunhofer 9 feine, scharf begrenzte Linien. Zwischen C und D bemerkte er deren dreißig. Die Linie D zeigte sich aus zwei starken Linien zusammengesetzt, welche durch einen schmalen hellen Streifen getrennt[Pg 311] waren. Zwischen D und E erblickte Fraunhofer 84 Linien von verschiedener Schärfe; und in dem gesamten Raume zwischen B und H vermochte er sogar 574 Linien zu zählen. Von diesen hat er nur die kräftigeren in seiner Zeichnung angedeutet.
Von großer Tragweite war Fraunhofers Beobachtung, daß das Licht der Lampe eine helle Linie aufweist, die mit den beiden D-Linien des Sonnenspektrums zusammenfällt462. Fraunhofer schloß daraus, daß »der Exponent des Brechungsverhältnisses für den Strahl D mit dem Exponenten für die helle Linie einerlei ist«. Der Nachweis, daß diese helle Linie durch eine Spur von Natrium hervorgerufen wird, sowie die Beantwortung der Frage, weshalb sie mit den D-Linien zusammenfällt, blieb Kirchhoff und Bunsen vorbehalten, die auf der von Fraunhofer und einigen anderen Forschern geschaffenen Grundlage seit 1859 die Spektralanalyse zu einem Forschungsmittel allerersten Ranges entwickelt haben.
Der Gedanke, die von Fraunhofer mit solch glücklichem Erfolge betriebenen Spektraluntersuchungen für die chemische Analyse zu verwerten, ging von Gustav Kirchhoff aus. Dieser machte als junger Physikprofessor seinem Amtsgenossen Bunsen, der die[Pg 312] Flammenfärbungen verschiedener Salze zum Nachweis der Metalle benutzte, den Vorschlag, anstatt die Flammen durch farbige Gläser und durch Lösungen zu betrachten, lieber ein Prisma anzuwenden. Beide Männer vereinigten sich zur Ausführung dieses Gedankens. Zunächst schufen sie einen für ihre Zwecke geeigneten Apparat, das Spektroskop, das Abb. 46 in seiner ursprünglichen, ihm von den Erfindern verliehenen Form darstellt.
A ist ein innen geschwärzter Kasten, der auf drei Füßen
ruht. Die beiden schiefen Seitenwände des Kastens tragen die
kleinen Fernrohre B und C. Die Okularlinsen des Rohres B sind
entfernt und durch eine Platte ersetzt, in der sich ein aus zwei
Messingschneiden gebildeter Spalt befindet. Der Spalt ist in den
Brennpunkt der Objektivlinse eingestellt. Vor dem Spalt wurde
die Lampe D so aufgestellt, daß der Saum ihrer Flamme von der
Achse des Rohres B getroffen wurde. Etwas unterhalb der Stelle,
wo die Achse den Saum traf, brachte man das zu einem kleinen
Öhr gebogene Ende eines sehr feinen Platindrahtes. Diesem Öhr
wurde eine Perle der zu untersuchenden Chlorverbindung angeschmolzen.
Zwischen den Objektiven der Fernrohre B und C befindet
sich ein Hohlprisma F mit einem brechenden Winkel von
60°, das mit Schwefelkohlenstoff gefüllt ist. Das Prisma ruht[Pg 313]
[Pg 314]
[Pg 315]
auf einer Messingplatte, die um eine vertikale Achse drehbar ist.
Diese Achse trägt an ihrem unteren Ende den Spiegel G und
darüber den Arm H, der als Handhabe dient, um das Prisma und
den Spiegel zu drehen. Gegen den Spiegel ist ein kleines Fernrohr
gerichtet, das dem hindurchblickenden Auge das Spiegelbild einer
in geringer Entfernung aufgestellten horizontalen Skala zeigt.
Durch Drehung des Prismas konnte man das ganze Spektrum der
Flamme an dem Vertikalfaden des Fernrohrs C vorbeiführen und
jede Stelle des Spektrums mit diesem Faden zur Deckung bringen.
Einer jeden Stelle des Spektrums entsprach eine an der Skala zu
machende Ablesung464.
Die Spektren der wichtigsten Metalle wurden zunächst mit Hilfe der Chlorverbindungen hervorgerufen. Das Ergebnis war die beistehende, der Abhandlung vom Jahre 1860 entnommene Tafel. Die darauf dargestellten Spektren wurden mit den Spektren verglichen, die man erhielt, wenn man die Bromide, Jodide, Oxydhydrate, die schwefelsauren und die kohlensauren Salze der entsprechenden Metalle in folgende Flammen brachte:
Bei dieser umfassenden Untersuchung stellte sich heraus, daß die Verschiedenheit der Verbindungen, in denen die Metalle angewandt werden, die Mannigfaltigkeit der chemischen Vorgänge in den einzelnen Flammen und der große Temperaturunterschied dieser letzteren keinen Einfluß auf die Lage der den einzelnen Metallen entsprechenden Spektrallinien ausübt. Kirchhoff und Bunsen erklärten dies daraus, daß die von ihnen verflüchtigten Salze bei der Temperatur der Flamme nicht beständig seien, sondern zerfallen, so daß immer die Dämpfe des freien Metalles die Spektrallinien erzeugen.
Soviel erwies sich als sicher, daß jeder Stoff sein eigenes Spektrum hat. Die gleichartigen Spektren der verschiedensten Salze eines und desselben Metalles konnten deshalb nur daher rühren, daß in den Flammen derselbe Stoff das Leuchten bewirkt. Ob es sich dabei um den Dampf des freien Metalles oder etwa um das Metalloxyd handelt, oder ob die Lichterscheinungen ihre Ursache in den mit dem chemischen Vorgang verbundenen Energieumwandlungen haben, konnte nicht mit Sicherheit entschieden werden.
Die Untersuchung der Salze der bekannteren Metalle ergab, daß von allen Spektralreaktionen die des Natriums am empfindlichsten ist. Die gelbe Linie Na α (siehe die Tafel), welche das Natriumspektrum aufweist, fällt mit der Fraunhoferschen Linie D zusammen und zeichnet sich durch ihre besonders scharfe Begrenzung und ihre außerordentliche Helligkeit aus. An der Sauerstoff-, Chlor-, Jod- und Bromverbindung, an dem schwefelsauren und kohlensauren Salze zeigte sich die Reaktion am deutlichsten. Allein selbst bei den kieselsauren, borsauren, phosphorsauren und anderen feuerbeständigen Salzen fehlte sie nicht.
Folgender Versuch ließ erkennen, daß die Chemie keine Reaktion aufzuweisen hat, die sich mit der spektralanalytischen Bestimmung des Natriums an Empfindlichkeit vergleichen läßt. Die beiden Forscher verpufften in einer vom Standorte des Spektralapparates möglichst weit entfernten Ecke des Beobachtungszimmers, das ungefähr 60 Kubikmeter Luft faßte, drei Milligramm chlorsaures Natrium mit Milchzucker465. Darauf wurde die nicht-leuchtende Lampe vor dem Spalt beobachtet. Schon nach wenigen Minuten gab die allmählich sich fahlgelblich färbende Flamme eine starke Natriumlinie, die erst nach 10 Minuten wieder verschwunden war. Aus dem Gewichte des verpufften Natriumsalzes und der im Zimmer enthaltenen Luft ließ sich berechnen, daß in einem Gewichtsteile der letzteren nicht einmal 1/20000000 Gewichtsteil Natriumoxyd enthalten sein konnte. Da sich die Reaktion in der Zeit einer Sekunde mit aller Bequemlichkeit beobachten ließ, in dieser Zeit aber nach dem Zufluß und der Zusammensetzung der Flammengase zu urteilen, nur ungefähr 50 ccm oder 0,0647 g Luft, die weniger als 1/20000000 des Natriumsalzes enthielten, in der Flamme zum Glühen gelangten, so ergab sich, daß das Auge[Pg 317] weniger als 1/3000000 Milligramm des Natriumsalzes noch deutlich zu erkennen vermag.
Auch der leuchtende Dampf der Lithiumverbindungen gab zwei scharf begrenzte Linien, eine gelbe sehr schwache und eine rote, glänzende. An Sicherheit und Empfindlichkeit übertraf auch diese Reaktion alle in der analytischen Chemie bisher bekannten.
Es ließ sich ferner die unerwartete Tatsache außer Zweifel stellen, daß das Lithium zu den verbreitetsten Elementen gehört. Lithium ließ sich mit Leichtigkeit im Meerwasser nachweisen. Asche von Tangen, die vom Golfstrom an die Küste getrieben waren, enthielt erhebliche Spuren davon. Sämtliche Orthoklase aus dem Granit des Odenwaldes zeigten sich lithiumhaltig. Mineralwässer, in denen Lithium kaum noch in einem Liter nach dem gewöhnlichen analytischen Verfahren nachgewiesen werden konnte, zeigten die rote Lithiumlinie oft schon, wenn man nur einen Tropfen des Wassers an einem Platindraht in die Flamme brachte. Selbst in der Asche von Tabak, vom Weinstock, sowie in der Asche der Feldfrüchte, die in der Rheinebene gezogen waren, fehlte das Lithium eben so wenig wie in der Milch der Tiere jenes Landstriches.
Ein Gemenge von flüchtigen Natrium- und Lithiumsalzen zeigte neben der Reaktion des Natriums die des Lithiums mit einer kaum verminderten Schärfe, während das unbewaffnete Auge an der Flamme nichts als das gelbe Licht des Natriums ohne jede Andeutung einer rötlichen Färbung wahrnahm.
In dem geschilderten, spektralanalytischen Verhalten der untersuchten Substanzen zeigte sich besonders die große Überlegenheit des neuen Verfahrens gegenüber dem bisherigen Nachweis der Elemente aus der Farbe und dem Aussehen gewisser Niederschläge. Wurde doch die charakteristische Farbe der Niederschläge oft durch Beimengung fremder Stoffe bis zur Unkenntlichkeit verwischt. Bei der Spektralanalyse dagegen erschienen die charakteristischen Linien unberührt von fremden Einflüssen und unverändert durch die Dazwischenkunft anderer Stoffe. »Die Stellen, welche sie im Spektrum einnehmen«, so lauten die Worte der beiden Forscher, »machen eine Eigenschaft aus, die so unwandelbar und fundamental ist wie das Atomgewicht der Stoffe. Dabei lassen sich diese Linien mit einer fast astronomischen Genauigkeit bestimmen. Was aber der spektralanalytischen Methode eine ganz besondere Wichtigkeit[Pg 318] verleiht, ist der Umstand, daß sie die Schranken, bis zu welchen bisher die chemische Analyse reichte, fast ins Unbegrenzte hinausrückt.«
Bot nämlich die Spektralanalyse einerseits ein Mittel von bewunderungswürdiger Einfachheit, um die kleinsten Spuren gewisser Elemente in irdischen Substanzen zu entdecken und bisher unbekannte Elemente aufzufinden, so eröffnete sie andererseits der chemischen Forschung ein bis dahin verschlossenes Gebiet, das über die Grenzen der Erde, ja selbst des Sonnensystems hinausreicht. Da es bei der in Rede stehenden analytischen Methode genügt, das glühende Gas, um dessen Analyse es sich handelt, durch das Spektroskop zu beobachten, so lag der Gedanke nahe, diese Methode auch auf die Atmosphäre der Sonne und die helleren Fixsterne anzuwenden. Diesen Gedanken verwirklicht zu haben, ist das große Verdienst Gustav Kirchhoffs.
Schon Fraunhofer hatte bemerkt, daß in dem Spektrum einer Kerzenflamme eine helle Linie auftritt, die mit den beiden dunklen D-Linien des Sonnenspektrums zusammenfällt. Bunsen und Kirchhoff vermochten die helle Linie der Kerze, die sich als eine Doppellinie erwies, auf die Allverbreitung des Natriums und die außerordentliche Empfindlichkeit der Spektralreaktion dieses Elementes zurückzuführen. Über den Grund des erwähnten Zusammenfallens gab eine zufällige Beobachtung Aufschluß. Bei der Untersuchung von Flammenspektren der verschiedenen Metallsalze befand sich eine mit Natrium gefärbte Alkoholflamme vor dem Spalt des Spektralapparates, während gleichzeitig Sonnenlicht hineinfiel. Bei diesem Versuche erschien die Natriumlinie auffallend dunkel, während man doch ein stärkeres Hervortreten der Linie hätte vermuten dürfen. Um diese unerwartete Erscheinung zu erklären, ließ Kirchhoff Drummondsches Kalklicht, das keine dunklen Linien gibt, sondern ein zusammenhängendes Spektrum liefert, zunächst durch eine Natriumflamme und darauf durch das Prisma fallen. Jetzt befand sich an der Stelle der gelben Linie eine dunkle. Hiermit war das erreicht, was in der Folge als eine Umkehrung des Flammenspektrums bezeichnet wurde.
Die Erscheinung erklärte Kirchhoff durch die Annahme, daß eine Natriumflamme nur solche Strahlen absorbiert, die sie selbst aussendet, für alle anderen Strahlen aber durchlässig ist. Daß diese Erklärung zutrifft, zeigt folgende, von Kirchhoff herrührende Überlegung. Wenn man vor den glühenden Platindraht,[Pg 319] dessen Spektrum man betrachtet, eine Natriumflamme bringt, so ändert sich die Helligkeit in der Nähe der Natriumlinien nicht; in diesen selbst ändert sie sich aus doppeltem Grunde: die Stärke des Lichtes, das von dem Platindraht ausgegangen ist, wird hier durch die Absorption der Flamme auf einen gewissen Bruchteil des ursprünglichen Wertes herabgesetzt. Das Licht der Natriumflamme wird aber hinzugebracht. Es ist klar, daß wenn der Platindraht stark genug leuchtet, der durch die Absorption bewirkte Verlust an Licht den durch die Leuchtkraft der Flamme hervorgebrachten Gewinn überwiegen muß; die Natriumlinien werden dann dunkler als ihre Umgebung erscheinen und können, wenn die Absorption stark genug ist, durch den Kontrast mit der Umgebung ganz schwarz aussehen, obgleich ihre Lichtstärke größer ist als diejenige, welche die Natriumflamme für sich allein hervorbringt.
Ebenso leicht, wie die hellen Natriumlinien in dunkle verwandelt werden konnten, gelang dies bei der roten Lithiumlinie. Auch an den Spektren der Metalle Kalium, Strontium, Calcium und Barium wurde von den beiden Forschern die Umkehrung und damit die Richtigkeit des von Kirchhoff ausgesprochenen Absorptionsgesetzes nachgewiesen.
Dieses wichtige Gesetz wurde in Kirchhoffs Abhandlung »Über den Zusammenhang zwischen Emission und Absorption von Licht und Wärme«466 mathematisch entwickelt und dahin ausgesprochen, daß »für Strahlen derselben Wellenlänge bei derselben Temperatur das Verhältnis des Emissionsvermögens zum Absorptionsvermögen für alle Körper dasselbe ist«.
Mit der Umkehrung der Spektren waren die Fraunhoferschen Linien des Sonnenspektrums erklärt. Sie deuten offenbar auf Dämpfe hin, welche den glühenden Zentralkörper umgeben und das von ihm ausgehende Licht absorbieren. Auf Grund der an den Metallspektren und deren Umkehrungen gewonnenen Ergebnisse vermochte Kirchhoff auf die Natur der absorbierenden Dämpfe und damit auf die materielle Beschaffenheit der Sonne, sowie der fernen Weltkörper überhaupt zu schließen. Der Astronomie wurde auf diese Weise ein ungeahnter Ausblick eröffnet. Dem Ausspruch Humboldts467, daß die Weltkörper für unsere Erkenntnis nur[Pg 320] gravitierende Materie ohne elementare Verschiedenheit der Stoffe seien, war jetzt die Berechtigung entzogen. Kirchhoff lieferte eine sehr genaue Untersuchung über das Sonnenspektrum468, indem er die Lage von mehr als 2000 Fraunhoferschen Linien nach einer von ihm gewählten Skala bestimmte. Dabei ergab sich, daß eine große Anzahl ausgezeichneter Fraunhoferscher Linien mit den Linien bekannter Metallspektren zusammenfallen.
Ein Blick auf die von Kirchhoff entworfene Tafel (Abb. 47) zeigt viele derartige Koinzidenzen. Besonders auffallend war es, daß sich an den Stellen aller von ihm beobachteten Eisenlinien im Sonnenspektrum scharfe dunkle Linien befanden469. Jede dieser Koinzidenzen ließ sich mit einer Sicherheit feststellen, welche derjenigen gleichkam, mit der bisher die Koinzidenz der Natriumlinien mit den D-Linien erwiesen war. Die beobachtete Tatsache erklärte Kirchhoff durch die Annahme, daß die Lichtstrahlen, die das Sonnenspektrum liefern, durch Eisendämpfe gegangen sind und hier die Absorption erlitten haben, welche Eisendämpfe ausüben müssen. »Der Annahme solcher Dämpfe in der Atmosphäre der Sonne«, sagt Kirchhoff, »steht bei der Tem[Pg 321]peratur, die wir diesem Weltkörper zuschreiben müssen, nichts entgegen. Die Beobachtungen des Sonnenspektrums scheinen mir die Gegenwart von Eisendämpfen in der Sonnenatmosphäre mit einer so großen Sicherheit zu beweisen, wie sie in den Naturwissenschaften überhaupt erreichbar ist.«
Nachdem die Gegenwart eines irdischen Stoffes in der Sonnenatmosphäre festgestellt und dadurch eine große Zahl von Fraunhoferschen Linien erklärt war, lag die Vermutung nahe, daß auch andere irdische Stoffe sich an der Zusammensetzung der Sonne beteiligen und durch die Absorption, welche sie ausüben, entsprechende Fraunhofersche Linien erzeugen. Dies ergab sich in der Tat für Calcium, Magnesium und Natrium. Allerdings ist die Zahl der hellen Linien in dem Spektrum eines jeden dieser Metalle nur klein. Aber diese Linien, sowie diejenigen des Sonnenspektrums, mit denen sie zusammenfallen, sind so deutlich, daß diese Koinzidenzen sich mit ganz besonderer Schärfe beobachten lassen.
Es lag nahe, zu untersuchen, ob auch Nickel und Kobalt, welche die steten Begleiter des Eisens in den Meteoriten sind, einen Bestandteil der Sonnenatmosphäre bilden. Mit gleicher Bestimmtheit, wie es für das Eisen geschehen, konnte indessen Kirchhoff in diesem Falle den Beweis nicht liefern. Für Barium, Kupfer und Zink machte er es wahrscheinlich, daß sie in der Sonnenatmosphäre vorhanden sind. Die Untersuchung auf Gold, Silber, Blei und einige andere Metalle ergab ein negatives Resultat.
Spätere Untersuchungen haben das Vorhandensein von Kobalt und Nickel in der Sonnenatmosphäre dargetan. Durch die Spektralanalyse ist die Anwesenheit von mehr als 30 Elementen in der Sonne mit Sicherheit nachgewiesen; darunter befinden sich Eisen, Nickel, Mangan, Chrom, Kobalt, Kohlenstoff (200 Linien), Calcium, Magnesium, Natrium, Silicium, Strontium, Barium, Aluminium, Zink, Kupfer, Silber, Zinn, Blei, Kalium. Im Sonnenspektrum nicht nachgewiesen sind: Antimon, Arsen, Wismut, Bor, Stickstoff, Gold, Quecksilber, Phosphor, Schwefel470. Doch ist damit nicht etwa der Nachweis geliefert, daß die letztgenannten Elemente an der Zusammensetzung des Sonnenkörpers nicht beteiligt sind. Man ist aus den Ergebnissen der Spektralanalyse in höherem Maße als durch die Analyse der Meteoriten zu dem Schlusse berechtigt, daß[Pg 322] das übrige Weltall, soweit es sich den Sinnen offenbart, denselben elementaren Aufbau wie die Erde besitzt.
Der Gesamtverlauf der Untersuchung mußte Kirchhoff zu der Annahme führen, daß die Sonne aus einem festen oder tropfbar flüssigen, in der höchsten Glut befindlichen Kern besteht, der für sich ein kontinuierliches Spektrum geben würde, der aber umgeben ist von einer das Licht zum Teil absorbierenden Atmosphäre von etwas geringerer Temperatur471.
Diese Vorstellung von der Beschaffenheit der Sonne stimmt mit der von Laplace begründeten Hypothese über die Bildung unseres Planetensystems überein472. Wenn die Masse, die jetzt in den einzelnen Körpern dieses Systems verdichtet ist, in früheren Zeiten einen zusammenhängenden Nebel von ungeheurer Ausdehnung bildete, durch dessen Zusammenziehung die Sonne, die Planeten und die Monde entstanden sind, so müssen alle diese Körper im wesentlichen von der gleichen chemischen Zusammensetzung sein.
Die Vermutung, welche Bunsen und Kirchhoff schon in ihrer ersten Abhandlung vom Jahre 1860 aussprachen, daß nämlich die Spektralanalyse ein Mittel zur Entdeckung bisher unbekannter Elemente abgeben werde, sollte sich sehr bald als zutreffend erweisen. Schon im Jahre 1861 konnten beide Forscher eine Untersuchung veröffentlichen, durch welche die Gruppe der Alkalimetalle um zwei neue Glieder, das Cäsium und das Rubidium, bereichert wurde. Das Vorkommen dieser Elemente ist ein so spärliches, daß es der Verarbeitung von 44000 kg eines Soolwassers473 bedurfte, um nur wenige Gramm des zur Untersuchung nötigen Materiales zu erhalten. Die Mutterlauge der untersuchten Soole zeigte nach der Ausfällung von Calcium, Strontium und Magnesium im Spektralapparat die Linien von Natrium, Kalium und Lithium und außer diesen noch zwei ausgezeichnete, sehr nahe beieinander liegende blaue Linien. Da kein einziges der bisher bekannten Elemente an der betreffenden Stelle des Spektrums zwei solche Linien hervorbrachte, so konnte die Existenz eines bisher unbekannt gebliebenen Grundstoffes als erwiesen betrachtet werden. Diesen[Pg 323] Grundstoff bezeichneten Kirchhoff und Bunsen der blauen Farbe seiner charakteristischen Linien wegen als Cäsium. Durch geeignete Behandlung des Minerals Lepidolith erhielten beide Forscher einen Niederschlag, der im Spektralapparat zwei neue, prachtvolle violette Linien von bestimmter Lage zeigte und auf einen zweiten, bis dahin unbekannten Grundstoff hindeutete. Er erhielt den Namen Rubidium, weil seine charakteristischen Linien im roten Teile des Spektrums liegen.
Beide Elemente wurden darauf von Bunsen eingehend auf ihr chemisches Verhalten geprüft. Sie erwiesen sich als dem Natrium und dem Kalium sehr ähnliche Grundstoffe. Ihre Affinität zum Sauerstoff war sogar noch größer als diejenige des Kaliums.
Bei der Untersuchung der Spektren von Rubidium und Cäsium bedienten sich Kirchhoff und Bunsen eines verbesserten Apparats. Dieser Apparat, der den noch heute gebräuchlichen Spektroskopen im wesentlichen entspricht, gestattet die Spektren zweier Lichtquellen auf das Schärfste miteinander zu vergleichen. Er besitzt eine mit Ziffern versehene Skala, die sich in dem Rohre C vor einer Sammellinse befindet und durch Reflexion an der vorderen Prismenfläche dem durch das Fernrohr B blickenden Beobachter gleichzeitig mit den Spektren sichtbar wird. Die Vergleichung zweier Spektren wird folgendermaßen erreicht. Der Spalt, welcher das Licht durch das Rohr A zum Prisma gelangen läßt, bleibt in der oberen Hälfte frei, in der unteren wird er dagegen von einem kleinen[Pg 324] Prisma bedeckt. Dieses läßt durch totale Reflexion die Strahlen der Lichtquelle D durch den Spalt treten, während die Strahlen der Lichtquelle E direkt durch die obere Hälfte des Spaltes gehen474. Ein Jahr später erfuhr das Spektroskop durch Kirchhoff eine weitere Verbesserung. Da die Spektrallinien bei den bisher benutzten Apparaten für feinere Ablesungen zu nahe beieinander lagen, galt es, eine Verbreiterung des Spektrums herbeizuführen. Kirchhoff erzielte dies, indem er statt eines Prismas vier in einem Halbkreise geordnete Prismen anwandte. (Abb. 49.)
Jedem Durchgang durch eines der drei hinzugefügten Prismen entsprach eine Verbreiterung des Spektrums unter entsprechender Vergrößerung des Abstandes der Spektral- oder der Fraunhoferschen Linien. Mit diesem Apparat stellte Kirchhoff seine Untersuchung über das Sonnenspektrum an, mit deren wichtigen Ergebnissen wir schon bekannt wurden475. Eine weitere Vergrößerung der Dispersion oder Zerstreuung des Lichtes erzielte man dadurch, daß man an die Stelle der Glasprismen mit stark zerstreuendem Schwefelkohlenstoff gefüllte Hohlprismen brachte.[Pg 325] Für manche Zwecke erwiesen sich ferner die geradsichtigen Spektroskope als erwünscht. Ihre Konstruktion beruht auf dem Grundsatz, daß man Prismenverbindungen herstellen kann, die wohl die Ablenkung, nicht aber die Farbenzerstreuung aufheben.
An die grundlegenden Arbeiten Kirchhoffs und Bunsens schlossen sich die Untersuchungen zahlreicher Physiker an. Mit den Spektren stark verdünnter Gase beschäftigten sich Plücker und Wüllner. Von dem Linienspektrum, das besonders durch stark verdünnte, elementare Gase und Dämpfe hervorgerufen wird, unterschied man das bei geringerer Verdünnung und insbesondere bei chemischen Verbindungen auftretende Bandenspektrum. Absorptionsstreifen traten auch auf, wenn man das kontinuierliche Spektrum durch flüssige und feste Körper hindurchgehen ließ.
An die Durchforschung des Sonnenspektrums reihten sich die spektroskopischen Untersuchungen der Protuberanzen, der Fixsterne und der Nebelflecken. Unter den irdischen Lichtquellen wandte sich das Interesse der mit dem Spektroskop arbeitenden Physiker insbesondere dem elektrischen Funken, dem Blitz, dem Nordlicht und zahlreichen anderen Erscheinungen zu, über deren Natur die neue Methode eine Fülle wertvoller Aufschlüsse gewinnen ließ.
In nicht geringerem Grade hat sich die Fruchtbarkeit des neuen Verfahrens für die Chemie selbst offenbart. Es wurde nicht nur zu dem wichtigsten analytischen Hilfsmittel, sondern es führte schon in den Händen seiner Erfinder zur Entdeckung neuer Grundstoffe476 und drang befruchtend in alle Zweige der angewandten Naturwissenschaften ein. So erblicken wir heute das Spektroskop in den Händen des Arztes, wenn es gilt, eine Kohlenoxyd- oder eine Blausäurevergiftung nachzuweisen, oder des Hüttenmannes, der aus dem Verschwinden der Kohlenstofflinie die Beendigung des Bessemerprozesses abliest.
Auch auf dem Gebiete der Astronomie erwies sich die Spektroskopie als eins der wichtigsten Forschungsmittel, besonders nachdem sie mit der Photographie vereinigt worden war. Jetzt erst war man imstande, die chemische und die physikalische Natur, sowie manche Bewegungserscheinungen der Gestirne aufzuhellen. Die genauere spektroskopische Erforschung der Sonne setzten sich der Schwede Angström, der Engländer Lockyer und der[Pg 326] Amerikaner Rowland als Aufgabe. Letzterer lieferte die gründlichste Untersuchung unseres Zentralgestirns477.
Das Studium der Sonnenphotosphäre führte zur Entdeckung eines Elementes, das die Mineralchemie bis dahin noch nicht kennen gelernt hatte. Der englische Physiker Crookes erkannte es an einer hellen, gelben Linie und nannte es Helium. Später gelang es Rayleigh, das Helium auf der Erde nachzuweisen478.
Für die Planeten machte das Spektroskop das Vorhandensein ziemlich dichter, aus Luft und Wasserdampf bestehender Hüllen wahrscheinlich. In den Kometen wurden Kohlenstoffverbindungen nachgewiesen. Das wichtigste Ergebnis der astronomischen Spektroskopie besteht somit darin, daß die Beschaffenheit der Materie im ganzen Weltraum die gleiche ist. Die Untersuchung der Fixsternspektren führte zur Entdeckung gewisser Typen dieser Weltkörper, die sich im wesentlichen als chemisch und physikalisch unserer Sonne gleichartige Bildungen erwiesen.
Auch für das Studium der Bewegung kosmischer Massen wurde das Spektroskop von größter Wichtigkeit. Man beobachtete die Verschiebung der Spektrallinien nach dem roten und nach dem violetten Teile des Spektrums. Eine Erklärung hierfür bot das Doppler'sche Prinzip. Danach muß die Wellenzahl des Lichtes sich vergrößern oder sich verringern, je nachdem wir uns der Lichtquelle nähern oder uns von ihr entfernen. So schloß Huggins 1868 aus der Verschiebung der Linien im Spektrum des Sirius, daß dieses Gestirn sich mit einer Geschwindigkeit von 6 Meilen in der Sekunde von uns fortbewegt. Derartige Messungen geben indessen keinen Aufschluß über die wahre Geschwindigkeit, da sie ja nur die eine, in den Visionsradius fallende Bewegungskomponente zu bestimmen gestatten. Gleichfalls im Jahre 1868 bestimmte Lockyer die Geschwindigkeit der unter dem Namen der Protuberanzen bekannten Wasserstofferuptionen der Sonne aus der Verschiebung der grün-blauen F-Linie des Wasserstoffs zu 32 Meilen für die Sekunde.
Eine mächtige Bundesgenossin erwuchs der Spektralanalyse in der Photographie. Daß die Haut durch eine Lösung von Silbernitrat geschwärzt wird, war schon im Mittelalter bekannt. Auch kannte man die Farbenänderung, welche das Chlorsilber erfährt479.[Pg 327] schon seit langer Zeit. Daß man es hier mit einer Wirkung des Lichtes zu tun habe, wurde im Beginn des 18. Jahrhunderts bemerkt480. Später folgte die Beobachtung, daß sich die chemische Wirkung des Lichtes nicht gleichmäßig über alle Teile des Spektrums verbreitet, und daß sie sich sogar über das Violett hinaus erstreckt.
Die ersten Versuche, dieses Verhalten zur Herstellung von Bildern zu verwenden, scheiterten an dem Umstande, daß man das unveränderte Silbersalz nicht zu entfernen vermochte. Erst die Jahrzehnte währenden, vereinten Bemühungen der Franzosen Nièpce und Daguerre führten zu einem befriedigenden Ergebnis. Ihr Verfahren wurde Daguerrotypie genannt. Es bestand darin, daß man das Bild einer Camera obscura auf eine versilberte Platte wirken ließ, auf der man zuvor durch Joddämpfe eine Jodsilberschicht hervorgerufen hatte. Ein merkwürdiger Zufall führte zur Entdeckung einer Art von Entwicklungsverfahren. Kurze Zeit belichtete Platten, die kaum Spuren einer Änderung zeigten, hatte man in einen Schrank gelegt, in dem etwas Quecksilber verschüttet war. Als man diese Platten wieder herausnahm, war ein deutliches Bild desjenigen Gegenstandes zu erblicken, dessen Strahlen vorher auf die Platten gewirkt hatten. Erst nach langem Kopfzerbrechen erkannte man das Quecksilber, dessen Dämpfe sich an den belichteten Stellen niederschlagen, als die Ursache dieser, alles in Erstaunen versetzenden Erscheinung.
Das von Daguerre herrührende Verfahren wurde seit der Mitte des 19. Jahrhunderts durch die von dem Engländer Talbot erfundene Papierphotographie verdrängt. Talbot überzog einen Bogen Papier mit einer hinreichenden Menge Silbernitrat und setzte ihn den Sonnenstrahlen aus, nachdem er einen Gegenstand vor dem Papiere angebracht hatte, der einen scharf begrenzten Schatten wirft481. Die belichteten Stellen des Papiers wurden dann geschwärzt, während die im Schatten befindlichen Stellen weiß blieben.
Die ersten Gegenstände, welche Talbot auf diese Weise abzubilden suchte, waren Blumen und Blätter. Als er bemerkte, daß die erhaltenen Bilder infolge der weiteren Einwirkung des Lichtes nur von kurzer Dauer waren, suchte er nach einem Ver[Pg 328]fahren, sie haltbar oder doch wenigstens beständiger zu machen. Folgende Überlegungen führten ihn zu dem erwünschten Ziele: Das vom Lichte geschwärzte Silbernitrat ist nicht mehr dieselbe chemische Substanz wie zuvor. Wenn daher das dem Sonnenlichte ausgesetzte Bild einem chemischen Prozeß unterworfen wird, so werden die weißen und die dunklen Stellen des Bildes in verschiedener Weise beeinflußt werden. Es ist nicht wahrscheinlich, daß nach der chemischen Behandlung die unveränderten und die geschwärzten Stellen einer weiteren Veränderung unterliegen. Sollte letzteres aber doch der Fall sein, so läßt sich nicht annehmen, daß diese Änderung jetzt auch darauf hinauslaufen wird, den verschiedenen Stellen das gleiche Aussehen zu verleihen. Angenommen, daß sie jetzt eine Verschiedenheit beibehalten, so wird das Bild sichtbar bleiben. Talbot fand bald diesem Zweck entsprechende Chemikalien, die ihm zum Fixieren seiner Photographien dienten.
Er kam dann auf den Gedanken, das Bild, das die Camera obscura auf das Papier hinzaubert oder auch nur die Umrisse dieses Bildes, die Lichter und die Schatten, wenn auch der Farbe entkleidet, festzuhalten. Talbot war zwar zuerst versucht, diesen Gedanken als einen wissenschaftlichen Traum anzusehen. Dennoch ging er ans Werk. Er versah seine Camera mit einem Objektiv und mit lichtempfindlichem Papier und stellte sie vor einem Gebäude auf, das günstig von der Sonne beschienen wurde. Einige Zeit darauf öffnete er den Apparat und fand auf dem Papier ein deutliches Bild des Gebäudes.
Die Bilder, welche Talbot (1835) erhielt, waren Negative, aus denen sich beliebig viele Positive gewinnen ließen. Die Photographie war dadurch zu einer vervielfältigenden Kunst geworden. So lange aber das Papier der einzige Träger der lichtempfindlichen Substanz war, blieb das Verfahren recht unvollkommen. Es wurde erst lebensfähig, als man zur Herstellung des Negativs Kollodium anwandte (1851), das infolge seiner Durchsichtigkeit die Gewinnung scharf begrenzter Positive ermöglichte.
Welche Bedeutung diese »kleine Erfindung«, wie sie von Talbot in seinem Bericht genannt wird, für die Kunst, die Wissenschaft und das praktische Leben gewinnen sollte, konnte der Erfinder freilich noch nicht ahnen. Wir können ihre Bedeutung erst ermessen, wenn wir uns denjenigen wissenschaftlichen und technischen Aufgaben der neuesten Zeit zuwenden, zu deren Bewältigung die Photographie in ganz hervorragendem Maße beigetragen hat.
Seitdem die bequeme Trockenplatte erfunden war, und das empfindliche Bromsilber für die Aufnahme des Lichteindrucks nur den Bruchteil einer Sekunde beanspruchte, drang das photographische Verfahren als die zuverlässigste und mit keinen subjektiven Mängeln behaftete Beobachtungsmethode in alle Zweige der Wissenschaft und der Technik ein. Es lag in der Natur der Sache, daß die Astronomie, die es fast nur mit Lichterscheinungen zu tun hat, in erster Linie und in solchem Maße aus dem photographischen Verfahren Nutzen zog, daß wir uns den in der neuesten Zeit emporgeblühten, physikalischen Teil dieser Wissenschaft ohne letzteres gar nicht denken können. Welch mühevolle Arbeit482 mußte z. B. Kirchhoff leisten, um das Sonnenspektrum so zu zeichnen, daß jede der vielen hundert Linien in der ihr zukommenden Lage und Stärke hervortrat! Dasselbe erreichte bald darauf Rutherford in kürzester Zeit und mit objektiver Treue, als er zum ersten Male das Sonnenspektrum photographierte483.
Zu den wunderbarsten Leistungen der Photographie gehört die neuerdings gelungene Aufnahme von Dingen, die das Auge nicht zu sehen vermag, die Photographie des Unsichtbaren. So ist es beispielsweise gelungen, den ultraroten und den ultravioletten Teil des Spektrums so genau zu photographieren, daß sich die Absorptions- und Emissionserscheinungen, welche diese Teile bieten, gerade so vollständig in allen ihren Eigentümlichkeiten und Gesetzmäßigkeiten erkennen lassen, wie es bisher beim sichtbaren Spektrum möglich war.
Zur Photographie des Unsichtbaren zählt auch die auf der akkumulierenden Wirkung des Lichtes beruhende Entdeckung zahlreicher Fixsterne, Kometen und Nebel, deren Licht so schwach ist, daß es mit den schärfsten Teleskopen nicht wahrgenommen werden kann. Jene akkumulierende Wirkung beruht darauf, daß die Platte, wenn man sie längere Zeit einem sehr lichtschwachen Objekt aussetzt, sozusagen die Differentiale der Belichtung summiert.
Zu der Leistung, die wir als die Photographie des Unsichtbaren bezeichnet haben, läßt sich das neuerdings in der Geodäsie der Bau- und der Ingenieurmechanik in Aufnahme gekommene,[Pg 330] als Photogrammetrie bezeichnete Meßverfahren in Parallele stellen. Ermöglicht doch dieses auf der Verbindung der Photographie mit der Stereoskopie beruhende Verfahren, Gegenstände auszumessen. die infolge ihrer Unzugänglichkeit nicht direkt gemessen werden können.
In welchem Maße die Photographie unter steter Vervollkommnung ihrer Methoden sich alle Gebiete der Wissenschaft und der Technik eroberte, läßt sich hier nicht im einzelnen ausführen, zumal an manchen Stellen dieses Bandes auf die wichtigsten Anwendungen der Photographie schon hingewiesen wurde. Unter den Problemen, mit denen sich die Jetztzeit auf diesem Gebiete beschäftigt, ist vor allem die naturgetreue Wiedergabe der Farben zu rechnen. Das Problem ist fast gleichzeitig von verschiedenen Seiten484 in Angriff genommen worden. Von der umständlichen Kombination mehrerer durch verschiedenfarbige Lichtfilter gemachter Aufnahmen ist man heute schon dahin gelangt, ein farbiges Bild durch eine einzige Aufnahme zu erzielen. Eine vollständige Lösung des Problems der Farbenphotographie ist indessen noch nicht gelungen.
Übrigens bietet der photographische Vorgang an sich dem Forscher noch manche Probleme dar. Ist es doch z. B. trotz aller Bemühungen noch nicht gelungen, das Wesen des sogenannten »latenten« Bildes und den Vorgang der Entwicklung, kurz das Verhalten der lichtempfindlichen Substanz vollständig und einwandfrei zu erklären485.
Die Chemie wurde zur Wissenschaft, als sie ihre Aufgabe in der Erforschung der Zusammensetzung der Stoffe erblickte. Das geschah unter der Führung Boyles im 17. Jahrhundert. Auch Scheele, einer der größten Chemiker des 18. Jahrhunderts, betrachtete es als den Hauptzweck der Chemie, die Stoffe in ihre Bestandteile zu zerlegen und neue oder schon bekannte Stoffe aus einfacheren zusammenzusetzen. In engere Beziehungen zur Physik trat die Chemie erst gegen das Ende des achtzehnten Jahrhunderts, als Lavoisier das Zeitalter der quantitativen Untersuchungsweise eröffnete. Mit diesem Augenblicke wurde die Chemie unter dem Einfluß der physikalischen Methoden zur messenden, wägenden, rechnenden, mit anderen Worten, zur exakten Wissenschaft. Von der immer enger werdenden Verknüpfung, welche die Chemie und die Physik seit den Tagen Lavoisiers und Gay-Lussacs und seit der Begründung der Elektrochemie durch Davy erfuhren, ist in früheren Abschnitten des dritten und des vorliegenden Bandes die Rede gewesen. Aus dieser Verknüpfung ging um die Mitte des 19. Jahrhunderts die physikalische Chemie als ein besonderer Wissenszweig hervor. Zeitlich und bis zu einem gewissen Grade auch ursächlich fällt die Begründung der neuen Disziplin mit der Entdeckung des Energieprinzips zusammen. Es war um 1840, als Kopp die systematische Erforschung der bis dahin nur vereinzelt wahrgenommenen Beziehungen zwischen der atomistischen Zusammensetzung und den physikalischen Eigenschaften der chemischen Verbindungen in Angriff nahm. Kopp wird daher mit Recht als der Begründer der physikalischen Chemie bezeichnet. Erschloß sich doch durch ihn ein Arbeitsfeld mit einer Fülle neuer, wichtiger Probleme und wohl geeignet, die Kräfte des einzelnen Forschers in vollem Maße in Anspruch zu nehmen487.
Zu den ersten Entdeckungen, die eine gesetzmäßige Beziehung zwischen chemischen und physikalischen Konstanten erkennen ließen, gehörte die Auffindung der Dulong-Petitschen Regel (1819), nach welcher die Atome der Elemente die gleiche Wärmekapazität besitzen. Anders ausgedrückt lautet das Gesetz: Die Atomwärme, d. h. das Produkt aus dem Atomgewicht und der spezifischen Wärme, ist für die im festen Zustande befindlichen Grundstoffe nahezu konstant 6,4.
Es lag nahe, die Untersuchung auf chemische Verbindungen auszudehnen. Diesen Weg beschritt Kopp488. Seine Arbeit über die spezifische Wärme der Salze ließ erkennen, daß die Molekularwärme (d. h. das Produkt aus der spezifischen Wärme und dem Molekulargewicht einer Substanz) gleich der Summe der Atomwärmen der in dem Molekül enthaltenen Elemente ist.
Nachdem man einmal durch Dulong und Petit auf eine solch unvermutete Beziehung zwischen scheinbar in keinem engeren Zusammenhange stehenden Konstanten aufmerksam geworden war, zögerte man nicht, nach ähnlichen Beziehungen zwischen anderen chemischen und physikalischen Konstanten zu forschen. Auf Einzelheiten kann hier nicht eingegangen werden. Erwähnt seien nur Kopps Untersuchungen über Siedepunktsregelmäßigkeiten. Es ergab sich beispielsweise, daß die Glieder homologer Reihen organischer Verbindungen annähernd gleiche Unterschiede zwischen den Siedepunkten aufweisen.
Auch aus der Erstarrungstemperatur hat man Schlüsse auf die chemische Zusammensetzung zu ziehen gesucht. Von dem größten Erfolge waren diese Bemühungen, als man sie auf Lösungen ausdehnte. Man erkannte, daß der Erstarrungspunkt des Lösungsmittels durch molekulare Mengen der gelösten Stoffe um den gleichen Wert herabgesetzt wird. Dies von Raoult im Jahre 1887 gefundene Erstarrungsgesetz wird sehr oft an Stelle der gasometrischen Methoden zur Ermittlung des Molekulargewichtes chemischer Verbindungen benutzt. Auch das optische Verhalten, wie die Brechung und die Polarisation des Lichtes, hat man zur Aufklärung der chemischen Konstitution herangezogen.
Zu einer ganz außergewöhnlichen Bedeutung gelangte die physikalische Chemie, als sich die Aussicht bot, mit Hilfe der[Pg 333] von ihr geschaffenen Methoden zu einer Lösung des wichtigsten aller chemischen Probleme, des Affinitätsproblems, vorzudringen. Dazu bedurfte es Methoden, die einen chemischen Vorgang in seinen einzelnen Phasen zu verfolgen gestatten. Solche Methoden wurden zuerst auf dem Gebiete der Photochemie ersonnen. Wir beginnen deshalb die ausführlichere Schilderung des Entwicklungsganges, den die physikalische Chemie genommen hat, mit den von Bunsen und Roscoe und von Jellet angestellten Experimentaluntersuchungen.
Unter den chemischen Wirkungen, welche durch physikalische Kräfte hervorgerufen werden, ist diejenige des Lichtes seit Jahrhunderten bekannt. Bis zum Jahre 1850 etwa hatte man jedoch auf jede Einsicht in die Gesetze der Lichtwirkung verzichten müssen, weil photochemischen Messungen die größten Schwierigkeiten entgegenstanden. Durch Bemühungen, die sich über eine Reihe von Jahren489 erstreckten, gelang es erst Bunsen im Verein mit Roscoe die Grundlagen für eine wissenschaftliche Photochemie zu schaffen490.
Die ersten Versuche, photochemische Messungen anzustellen, fußten auf dem bekannten Verhalten des Chlorwassers, sich unter der Einwirkung des Lichtes nach der Gleichung 2Cl + H2O = 2HCl + O in Salzsäure und Sauerstoff zu zersetzen. Dieses Meßverfahren, das Bunsen und Roscoe nachprüften, erwies sich jedoch als unbrauchbar, weil die bei der Zersetzung des Wassers durch Chlor entstandene Salzsäure eine störende Rückwirkung ausübte.
Die photochemischen Wirkungen auf ein vergleichbares Maß zurückzuführen, gelang erst Draper. An seine Arbeit knüpften Bunsen und Roscoe ihre Untersuchungen an. Draper ging von einer Beobachtung aus, die schon Dalton über das Verhalten angestellt hatte, das Chlorknallgas zeigt, wenn man es der Wirkung des Lichtes aussetzt. Dalton beschreibt diese, für die weitere Entwicklung der Photochemie grundlegende Beobachtung mit folgenden Worten: »Man hatte entdeckt, daß ein Gemenge von Chlor und Wasserstoff, das man in einem Zylinder in der pneumatischen Wanne aufbewahrte, am folgenden Tage verschwunden war, und daß das Wasser die Stelle des Gemenges ein[Pg 334]genommen hatte. Da ich die Zeit, innerhalb deren dieser Vorgang stattfindet, genauer zu ermitteln wünschte, ließ ich das Gemenge der beiden Gase in einem Eudiometerrohre über Wasser stehen. Bei einem derartigen Versuche fand die Verminderung des Gemenges mit großer Schnelligkeit statt, bei einem anderen erfolgte sie sehr langsam. Darauf entsann ich mich, daß während des ersten Versuches das Eudiometer in der Sonne gestanden hatte. Ich wiederholte den Versuch daher im Sonnenlichte, und das Verschwinden des Gasgemenges erfolgte wieder sehr rasch. Ich fand also, daß das Licht die Ursache des Vorganges sei, und daß dieser um so rascher verläuft, je intensiver das Licht ist. Überzog ich das Eudiometer, in dem sich das Gemenge von Chlor und Wasserstoff befand, mit einem undurchsichtigen Stoff, so trat während des ganzen Tages kaum eine Verminderung ein. Brachte ich aber Chlor und Wasserstoff in einer geschlossenen Flasche ins Sonnenlicht, so fand die Vereinigung der Gase unter Explosion statt«491.
Draper experimentierte mit einem elektrolytisch erzeugten Gemisch aus gleichen Raumteilen Chlor und Wasserstoff. Das Gemisch erfuhr bei der Belichtung eine Raumverminderung, indem das entstehende Chlorwasserstoff- oder Salzsäuregas von der Flüssigkeit, über der sich die Gase befanden, absorbiert wurde. Jene Raumverminderung, welche Draper an einer Skala ablas, zeigte sich innerhalb kurzer Zeitintervalle der Lichtstärke proportional. Sie wurde daher von Draper als photochemisches Maß vorgeschlagen. Dies sind die Grundlagen des von Bunsen und Roscoe weiter ausgebauten Verfahrens. Seine Brauchbarkeit hing indessen von gewissen Bedingungen ab, die Draper noch nicht bekannt und daher bei dem von ihm benutzten Apparat auch nicht einmal annähernd erfüllt waren. Als unerläßliche Bedingungen für eine Vergleichbarkeit der Angaben des photochemischen Meßapparates erwiesen sich die völlig konstante Zusammensetzung des Gasgemisches, sowie der Ausschluß jeder Druckänderung während der Dauer der Belichtung.
Erst nach vielen Vorarbeiten gelang Bunsen und Roscoe die Herstellung eines Apparates, mit dessen Hilfe sie alle störenden Einflüsse von ihren Messungen auszuschließen und die chemischen Wirkungen des Lichtes nicht nur auf ein vergleichbares, sondern auf ein absolutes Maß zurückzuführen vermochten.
Der Apparat besaß folgende Einrichtung (s. Abb. 50): In dem mit Kohleelektroden versehenen Gefäße a wird durch den in der Batterie C erzeugten Strom Salzsäure in ein Gemenge von Chlor und Wasserstoff zerlegt. Dies Gasgemenge gelangt durch einen Wasser enthaltenden Waschapparat w in die mit einem Glashahn versehene Röhre h. Zwischen dieser Röhre und dem horizontalen, engen Skalenrohr k befindet sich das Insolationsgefäß i, das einige Kubikzentimeter Wasser enthält. Auf das Skalenrohr folgt ein Gefäß l, das für Sperrwasser bestimmt ist. E ist ein Kondensationsgefäß für das überschüssige Gas. Letzteres wird langsam durch den Apparat geleitet, bis die in a, w, i und l enthaltenen Flüssigkeiten völlig gesättigt sind.
Will man den von Luft befreiten und mit Chlorwasserstoff gefüllten Apparat benutzen, so wird der Hahn bei h geschlossen und das Insolationsgefäß i dem Lichte ausgesetzt. Dadurch wird ein Teil des Gasgemenges in Chlorwasserstoff verwandelt. Letzteres wird von dem in i befindlichen Wasser absorbiert und infolge dieser Verminderung des abgesperrten Gasvolumens tritt Wasser aus i in die horizontale Meßröhre über. Da l sehr weit ist, wird dabei der Druck, unter dem das Wasser steht, nicht geändert.
Mit diesem Apparat entdeckten Bunsen und Roscoe zunächst die eigentümliche Erscheinung der photochemischen Induktion.[Pg 336] Die photochemische Wirkung tritt nämlich bei vollkommen konstant erhaltener Lichtstärke nicht sogleich in ihrer vollen Stärke ein, sondern sie ist anfangs sehr klein, steigert sich dann allmählich und erreicht nach einiger Zeit ihren vollen Wert, auf dem sie sich konstant erhält, solange dieselbe Lichtwirkung auf das Insolationsgefäß ausgeübt wird. Das Anwachsen der Wirkung zeigt folgende Versuchsreihe:
Zeit in Minuten. | Wirkung in einer Minute. |
1 | 0,5 |
3 | 0,5 |
5 | 2,1 |
7 | 29,2 |
9 | 30,4 |
Nach 9 Minuten blieb die Wirkung konstant und belief sich für die Minute auf etwa 30. Bei vergleichenden Messungen mußte man daher warten, bis die Induktion beendet und das konstant bleibende Maximum eingetreten war.
Das Gesetz der photochemischen Induktion gab auch den Schlüssel zur Erklärung für gewisse rätselhafte Erscheinungen, die dem photographischen Prozeß anhaften. Durch photochemische Induktion kann z. B., ohne daß ein sichtbarer Lichteindruck eingetreten wäre, die Empfindlichkeit der Platte so gesteigert werden, daß ein in verschiedenen Lichtabstufungen unter dem Negativ begonnenes Bild bei einer darauf folgenden gleichförmigen Bestrahlung den früheren Lichtabstufungen entsprechend weiter ausgebildet wird. Ein ähnliches Verhalten zeigt sich, wenn man kurze Zeit belichtete Platten mit gewissen Reduktionsmitteln entwickelt. Man wollte daraus schließen, daß die photochemische Wirkung nach dem Belichten fortdaure. Dem widersprachen aber die Versuche. Bunsen und Roscoe zeigten nämlich mit Hilfe ihres Apparates, daß die chemische Wirkung mit der Verdunkelung augenblicklich aufhört. Die Verbindung des Chlorknallgases zu Salzsäure währte nämlich nicht über die Dauer der Bestrahlung hinaus fort. Eine photochemische Nachwirkung fand also nicht statt.
Bunsen und Roscoe wandten sich darauf den Gesetzen zu, von denen die chemischen Wirkungen des Lichtes nach vollendeter Induktion beherrscht werden. Zunächst galt es, ein allgemein vergleichbares und absolutes Maß der chemischen Strahlen zu finden. Zu diesem Zwecke stellten sich beide Forscher eine Normalflamme her, indem sie einen Brenner von bestimmten Abmessungen mit[Pg 337] einer genau bemessenen Menge Kohlenoxydgas speisten492. Als photometrische Einheit setzten sie die Wirkung fest, die eine solche Normalflamme bei einer Entfernung von 1 Meter in der Minute auf normales, in dem Insolationsgefäß befindliches Chlorknallgas ausübt.
Der Nachweis, daß die photochemische Wirkung der Intensität des wirkenden Lichtes proportional ist, wurde durch folgenden Versuch geliefert. Eine konstante Flamme wurde in verschiedenen Entfernungen von dem Apparat aufgestellt. Die nach Beendigung der photochemischen Induktion jedesmal entstandene Salzsäuremenge war dem Quadrate des Abstandes umgekehrt proportional, und damit war die Richtigkeit des vorerwähnten Gesetzes erwiesen.
Von weittragender Bedeutung ist der Teil der Untersuchung, der sich mit der Sonne beschäftigt. Von ihr stammt ja der Vorrat an lebendiger Kraft, der die Tier- und Pflanzenwelt erhält und alle meteorologischen Erscheinungen hervorruft. Sind letztere zwar auf die thermischen Vorgänge zurückzuführen, welche die Sonnenstrahlen im Ozean und in der Atmosphäre hervorrufen, so sind, wie Bunsen und Roscoe hervorhoben, die photochemischen Arbeitsleistungen zwar weniger großartig aber nicht minder belangreich.
Nachdem die chemischen Wirkungen des zerstreuten Tageslichtes und des direkten Sonnenlichtes gemessen und mit den Wirkungen irdischer Lichtquellen verglichen waren, gingen Bunsen und Roscoe dazu über, die chemischen Wirkungen der einzelnen Bestandteile des Sonnenlichtes zu untersuchen. Sie ließen das Sonnenspektrum auf einen weißen Schirm fallen, der mit einer Lösung von schwefelsaurem Chinin bestrichen war, um die ultravioletten Strahlen sichtbar zu machen. Der Schirm war ferner mit einem Spalt versehen, durch den nur der zur Untersuchung bestimmte Teil des Spektrums auf das 4-5 Fuß entfernte Insolationsgefäß geworfen wurde. Auf dem Schirm befand sich endlich noch eine Einteilung, an der die Abstände der Fraunhoferschen Linien abgelesen und der zu untersuchende Teil des Spektrums genau begrenzt werden konnte. Zur Erläuterung der gewonnenen Ergebnisse diene folgende, von beiden Forschern entworfene graphische Darstellung (s. Abb. 51). Es geht aus ihr hervor, daß im Rot und Gelb die photochemische Wirkung sehr[Pg 338] schwach ist. Im Blau dagegen steigt sie rasch zu einem Maximum an. Ein zweites kleineres Maximum läßt sich, wie die Kurve zeigt, im Ultraviolett bei J erkennen.
Mit dem Hinweise, daß weitere Untersuchungen über die photochemische Wirkung der Sonne während der fleckenreichen und der fleckenarmen Perioden angestellt werden möchten, da man auf diese Weise voraussichtlich wertvolle Aufschlüsse über die rätselhaften Vorgänge auf der Sonne erhalten werde, schließen Bunsen und Roscoe ihre Arbeit. Sie bildet, wie ihr Herausgeber sagt, ein klassisches Vorbild für alle späteren Untersuchungen auf dem Gebiete der physikalischen Chemie, denn eine gleiche Summe von Scharfsinn, Ausdauer und experimentellem und rechnerischem Geschick ist selten auf eine Aufgabe verwandt worden, deren Lösung zudem fast unüberwindliche Schwierigkeiten bot und auch nur bis zu einem gewissen Grade erfolgen konnte. Daß z. B. die photochemische Wirkung des Lichtes in den Pflanzen anderen Gesetzen folgt, indem hier vorzugsweise die gelben Strahlen das Kohlendioxyd zerlegen, wurde schon 1844 von Draper nachgewiesen493.
Bei den Untersuchungen von Roscoe und Bunsen galt es, die Frage zu beantworten, welche chemischen Veränderungen das Licht hervorruft und welchen Gesetzen diese Wirkungen unterliegen. Auch mit der Umkehrung dieser Frage hat man sich beschäftigt und die Änderungen zu erforschen gesucht, die ein Licht[Pg 339]strahl bei seinem Durchgänge durch Stoffe von verschiedener chemischer Zusammensetzung erleidet. Für diese Untersuchung bieten sich zwei Wege dar. Handelt es sich um gewöhnliches Licht, so lassen sich die Änderungen, die es unter der Einwirkung verschiedenartiger chemischer Stoffe erfährt, am besten durch die Untersuchung seines Spektrums feststellen. Bei polarisiertem Licht dagegen hat sich die Aufmerksamkeit besonders auf den Umstand gerichtet, daß die Polarisationsebene unter der Einwirkung gewisser chemischer Substanzen eine Drehung erfährt. Diese auch wohl als rotatorische Polarisation bezeichnete Erscheinung ist nicht nur für die Lösung wissenschaftlicher Probleme, sondern auch für die Praxis von ähnlicher Bedeutung wie die im vorigen Abschnitt in ihrem Entwicklungsgange geschilderte Spektralanalyse.
Mit dem polarisierten Lichte war man besonders durch die Arbeiten von Huygens494 und von Malus495 vertraut geworden. Die Undulationstheorie vermochte die Polarisation erst zu erklären, nachdem Fresnel an Stelle der Longitudinalschwingungen des Äthers Transversalschwingungen angenommen hatte. Nach Fresnel finden beim gewöhnlichen Licht die Ätherschwingungen in allen möglichen Ebenen senkrecht zur Fortpflanzungsrichtung statt, beim polarisierten dagegen nur in einer bestimmten Ebene, die gleichfalls senkrecht zur Richtung des Strahles liegt. Wie man ein Strahlenbündel erhält, das völlig aus polarisiertem Licht besteht, hatte Nicol gezeigt. Das im Jahre 1841 von ihm erfundene und nach ihm benannte Prisma ist seitdem der wesentlichste Bestandteil aller Polarisationsapparate. Das Nicolsche Prisma dient sowohl zur Erzeugung (Polarisator) als auch zur Analyse des polarisierten Lichtes (Analysator). Abb. 52 läßt erkennen, wie sich ein solcher Polarisator (b)[Pg 340] und ein Analysator (d) zur Untersuchung einer Substanz (h) im polarisierten Lichte verbinden lassen. Die Prismen sind um die vertikale Achse des Apparates drehbar. Gibt man den Prismen die Stellung, in der die Polarisationsebenen senkrecht zu einander stehen (gekreuzte Nicols), so erscheint das Gesichtsfeld dunkel, weil das aus b kommende, polarisierte Licht bei dieser Stellung nicht in den Analysator eindringt. Die Polarisationsebene des aus b kommenden Lichtes kann aber durch gewisse, an die Stelle von h gebrachte Substanzen eine Drehung erfahren. Infolgedessen wird das von unten auf d fallende Licht wieder befähigt, den oberen Nicol zu durchdringen, obgleich er sich zu dem unteren in gekreuzter Stellung befindet496. Biot untersuchte auf diesem Wege das optische Verhalten des Bergkristalls497. Er brachte senkrecht zur Achse des Kristalls geschnittene Platten zwischen die gekreuzten Nicols. Dadurch wurde das Gesichtsfeld aufgehellt. Es wurde erst wieder dunkel, nachdem Biot den oberen Nicol um einen bestimmten Winkel gedreht hatte. Offenbar wurde der Polarisationsebene durch die Quarzplatte eine Drehung erteilt und diese durch die Drehung des oberen Nicols wieder ausgeglichen. Letzterer läßt nämlich nur in dem Falle das polarisierte Licht nicht hindurch, wenn seine Polarisationsebene senkrecht zur Polarisationsebene des unteren Nicols steht. Die am Quarz beobachtete Erscheinung wurde später auch an vielen anderen kristallisierten Substanzen nachgewiesen. Daß sie keineswegs nur von dem kristallinischen Gefüge abhängt, beobachtete schon Biot. Er entdeckte nämlich, daß eine Drehung der Polarisationsebene auch eintritt, wenn der polarisierte Strahl durch eine Schicht von Terpentinöl oder durch eine alkoholische Lösung von Kampfer geht. Auch an Lösungen von Rohrzucker, von Weinsäure und von weinsauren Salzen wies Biot die Erscheinung der Zirkularpolarisation nach. Er bemerkte auch schon, daß die Drehung, welche eine optisch aktive Substanz hervorbringt, die in einem inaktiven Mittel gelöst ist, der Länge der Flüssigkeitsschicht und der Menge der gelösten Substanz proportional ist.
Beim Quarz bedingt offenbar das kristallinische Gefüge die Zirkularpolarisation, da der Quarz nach seiner Überführung in den amorphen Zustand die Polarisationsebene nicht mehr dreht. Bei[Pg 341] den in Lösung befindlichen Substanzen kann man dagegen nur den Aufbau des Moleküls als die Ursache für die Zirkularpolarisation betrachten. Das Studium der Polarisationserscheinungen schien daher ein geeignetes Mittel darzubieten, um in den Vorgang der molekularen oder chemischen Umsetzungen tiefer einzudringen. In dieser Richtung bewegten sich die experimentell und theoretisch sehr erfolgreichen Untersuchungen Jellets498.
Zunächst brachte Jellet an dem Polarisationsapparat Verbesserungen an, die ihn überhaupt erst zu genauen Messungen befähigten. Eine völlige Verdunklung des Gesichtsfeldes bei gekreuzten Nicols würde nämlich nur dann eintreten, wenn es sich um homogenes, polarisiertes Licht handelt, dessen Strahlen vollkommen parallel sind. Bei der Ausführung der Versuche lassen sich diese Bedingungen nicht erfüllen. Durch die Drehung des Analysators läßt sich daher nur erreichen, daß die Helligkeit des Gesichtsfeldes zu einem Minimum wird. Die Entscheidung darüber, wann dieses Minimum stattfindet, ist sehr schwierig, zumal die gerade beobachtete Intensität, um sie als ein Minimum zu erkennen, mit derjenigen Intensität verglichen werden muß, die man von der vorhergehenden Beobachtung noch im Gedächtnis hat. Jellet gab dem Analysator deshalb die Einrichtung, daß er gleichzeitig zwei halbkreisförmige Bilder lieferte, deren Intensitäten sich leicht miteinander vergleichen ließen. Um die Drehung der Polarisationsebene zu messen, hatte man nur die Gleichheit der Intensitäten herzustellen, die zu untersuchende Substanz zwischen die Nicols zu bringen und den Analysator solange zu drehen, bis die halbkreisförmigen Bilder wieder gleich hell waren.
Schon Biot, welcher die Grundlagen für das hier besprochene Gebiet der physikalischen Chemie schuf, hatte beobachtet, daß sich die optisch wirksamen Substanzen in rechtsdrehende und in linksdrehende499 unterscheiden lassen. Hierauf gründete Jellet einen[Pg 342] zweiten Fortschritt in der Ausgestaltung der polarimetrischen Methode. An Stelle der direkten Messung des Winkels, um den die Polarisationsebene des Lichtes gedreht wird, wandte er nämlich das Verfahren der Kompensation an. Es besteht darin, daß die Wirkung der zu untersuchenden Substanz durch die Wirkung einer Substanz mit entgegengesetztem Drehungsvermögen ausgeglichen wird. Man wird also das Drehungsvermögen der zu untersuchenden Substanz in Werten einer anderen, die als Norm dient, ausdrücken. Als Lösungsmittel benutzte Jellet Alkohol. Dadurch wurde die in wässeriger Lösung eintretende elektrolytische Dissoziation vermieden. Als Einheit des Drehungsvermögens setzte er die Wirkung einer einen Zoll langen Schicht der Lösung von Salizin in Alkohol fest. Diese Lösung mußte natürlich auch eine fest bestimmte Konzentration haben500.
Die wichtigste Anwendung, die Jellet von seinem Verfahren machte, betraf das so schwierige, von Berthollet zu Beginn des 19. Jahrhunderts aufgeworfene Problem des chemischen Gleichgewichts. Vor Berthollet hatte man sich den Ablauf des chemischen Vorganges sehr einfach vorgestellt. Wenn auf eine Verbindung AB ein dritter Stoff C wirkt, so sollte sich dieser je nach der Größe der chemischen Anziehung entweder mit A oder mit B verbinden. Oder, was dasselbe bedeutet, es sollte durch den auf AB wirkenden Stoff C entweder B oder A ganz aus der ursprünglichen Verbindung verdrängt werden, der Vorgang sich also in das Schema AB + C = AC + B oder in das analoge Schema AB + C = BC + A bringen lassen501.
Diese Ansicht, daß die Affinität oder die chemische Verwandtschaft eine konstante, von den Umständen unabhängige Größe sei, wurde zuerst durch Berthollet erschüttert502. Nach ihm hängt das chemische Gleichgewicht nicht nur von der Affinität der aufeinander wirkenden Stoffe, sondern auch von den physikalischen Umständen und von dem Mengenverhältnis der Stoffe ab. Von Berthollets in der Hauptsache zutreffenden Ansichten gingen die vielen neueren Bemühungen aus, die Abhängigkeit von dem Mengenverhältnis zu ermitteln oder, wie man es wohl genannt hat, das Gesetz der Massenwirkung zu finden. Die Wege, die man hierbei[Pg 343] einschlug, waren verschieden. Jellet suchte das Problem mit Hilfe polarimetrischer Untersuchungen zu lösen.
Wie die früheren Forscher, die sich mit dem Problem der Affinität beschäftigten, so ging auch Jellet von der Entstehung der Salze durch das Zusammentreten von Säuren und Basen aus. Bringt man zu einer Lösung, die zwei Basen, z. B. Kali und Natron, enthält, eine Säuremenge, die zur Neutralisation der beiden Basen nicht ausreicht, so erhebt sich die Frage, wie sich die Säure auf die beiden Basen verteilt. Von dem Fall, daß sich ein unlösliches Salz bildet, muß man hierbei absehen, da ein solches sofort nach seiner Entstehung aus dem Bereich der chemischen Wirkungen ausscheidet503. Es sei also angenommen, daß die beiden entstandenen Salze, sowie diejenigen Anteile der Basen, die nicht neutralisiert wurden, sämtlich in Lösung bleiben. Setzen wir z. B. dem Gemenge von Kali und Natron eine zur Neutralisation beider Basen nicht genügende Menge Salpetersäure zu, so wird sich nach kurzer Zeit der chemische Umsatz in der Art vollzogen haben, daß sich vier Stoffe in einem bestimmten Mengenverhältnis in der Lösung befinden. Diese Stoffe sind salpetersaures Kalium, salpetersaures Natrium, Kali und Natron. Wäre die ältere Vorstellung richtig, nach welcher der chemische Vorgang allein von der Affinität abhängen sollte, so müßte sich beim Zusatz der Säure zu dem Gemenge der Basen zunächst die stärkere Base mit soviel Säure verbinden, wie zur Bildung des betreffenden Salzes erforderlich ist. Erst beim weiteren Zusatz von Säure würde die Neutralisation der zweiten Base beginnen. Man war aber, und zwar insbesondere durch Berthollet, darauf aufmerksam geworden, daß neben der chemischen Anziehung auch die Massenwirkung eine Rolle spielt, und daß beispielsweise das Verhältnis, in dem sich eine Säure zwischen zwei Basen verteilt, von den Mengen der Basen abhängt. Ist die einem bestimmten Mengenverhältnis entsprechende Verteilung eingetreten, so sind die in chemischer Berührung befindlichen, gelösten Substanzen offenbar im Zustande des chemischen Gleichgewichts. Dieses würde auch obwalten, wenn man die vier Substanzen in dem für das chemische Gleichgewicht erforderlichen Verhältnis von vornherein in die Lösung gebracht hätte.
Um das Mengenverhältnis für den Zustand des chemischen Gleichgewichts zu ermitteln, experimentierte Jellet mit zwei[Pg 344] Pflanzenbasen und mit Salzsäure. Als geeignete Pflanzenbasen (Alkaloide)504 wählte er Chinin und Brucin. Sie sind in Alkohol leicht löslich und bilden mit Salzsäure wohlcharakterisierte, gleichfalls in Alkohol lösliche Salze. Zur Bestimmung des Mengenverhältnisses, in dem sich die beiden Alkaloide und die Salzsäure im Zustande des chemischen Gleichgewichts befinden, diente die optische Untersuchung. Die Lösungen von Chinin und Brucin, die beide die Polarisationsebene links drehen, wurden gemischt und mit einer Menge Salzsäure versetzt, die zur Überführung der Basen in salzsaures Chinin und in salzsaures Brucin nicht ausreichte. Die Bestimmung des Mengenverhältnisses, das in der Lösung obwaltet, stützte sich auf die Tatsache, daß die Stoffe in gemeinsamer Lösung, wenn sie chemisch nicht aufeinander wirken, ihr Drehungsvermögen gegenseitig auch nicht beeinflussen. Hatte Jellet die Drehung eines Gemisches, in dem sich die vier Substanzen505 im chemischen Gleichgewicht befanden, ermittelt und verdünnte er dann die Lösung, so wurde die Drehung im genauen Verhältnis der Verdünnung kleiner. Jellet schloß daraus, daß das chemische Gleichgewicht durch die Verdünnung nicht geändert wird.
Ein Beispiel, wie man die Mengen der vier im chemischen Gleichgewicht stehenden, in der Lösung vorhandenen Substanzen findet, ist das folgende. Zu b1 Molekülen Chinin und b2 Molekülen Brucin habe man α Moleküle Salzsäure gefügt. Letztere verbindet sich mit Chinin und Brucin so, daß jedes Molekül der Basis sich mit einem Molekül Salzsäure vereinigt. Entstanden also x Moleküle[Pg 345] salzsaures Chinin, so müssen sich α - x Moleküle salzsaures Brucin gebildet haben. Für die Mischung der vier Substanzen wird sich die beobachtete Gesamtdrehung r so zusammensetzen, daß r die Summe ist aus:
x | multipliziert mit dem molekularen Drehungsvermögen des salzsauren Chinins. |
α - x | multipliziert mit dem molekularen Drehungsvermögen des salzsauren Brucins. |
b1 - x | multipliziert mit dem molekularen Drehungsvermögen des unverbundenen Chinins506. |
b2 - [α - x] | multipliziert mit dem molekularen Drehungsvermögen des unverbundenen Brucins507. |
Die für r bestehende Gleichung, können wir kürzer schreiben:
r = x · DChi · HCl + (α - x)DBru · HCl + (b1 - x)DChi + (b2 - [α - x])DBru.
In diesem Ausdruck bedeutet D jedesmal das Drehungsvermögen der neben D vermerkten Verbindungen.
Aus der Gleichung läßt sich x, da alle übrigen Werte genau bestimmt sind oder polarimetrisch gemessen wurden, berechnen. Aus dem Wert für x erhält man die Mengen der in den Lösungen vorhandenen Substanzen gleichfalls durch Rechnung508. War die Lösung z. B. so zusammengesetzt, daß auf 100 Moleküle Chinin, 104 Moleküle Codëin und 70,7 Moleküle Salzsäure kamen, so erhielt man für x den Wert 42,7.
Ist der Wert für x gefunden, so sind damit auch die Mengen α - x, b1 - x und b2 - (α - x) der drei anderen in der Lösung enthaltenen Substanzen bekannt. Wurde in drei weiteren Beobachtungsreihen die Menge der Säure verändert, während man für die Basen dieselben Werte beibehielt, so erhielt man das in folgender Tabelle ausgedrückte Ergebnis:
b1 | b2 | α | x |
100 | 104 | 70,7 | 42,7 |
100 | 104 | 91,7 | 55,0 |
100 | 104 | 112,4 | 66,0 |
100 | 104 | 130,2 | 73 |
Es erhob sich jetzt die Frage, ob diese Werte für die vier in der Lösung im chemischen Gleichgewicht stehenden Substanzen eine gesetzmäßige Beziehung erkennen lassen. Nach der Gleichung auf S. 343 sind in der Lösung für den Fall des chemischen Gleichgewichts enthalten:
x | Moleküle salzsaures Chinin | (1) |
α - x | Moleküle salzsaures Brucin | (2) |
b1 - x | Moleküle Chinin | (3) |
b2 - (α - x) | Moleküle Brucin | (4) |
Aus diesen Werten bildete Jellet einen Quotienten von der Form ((1) · (4))/((2) · (3)) = (x[b2 - (α - x)])/((α - x)(b1 - x)).
Wurde dieser Quotient für die in den vier Beobachtungsreihen enthaltenen Werte berechnet, so ergab sich, daß er eine konstante Größe ist. Diese Gleichgewichtskonstante besaß für die Kombinationen von Chinin, Codëin und Brucin folgende Werte:
Chinin und Codein | 2,03 |
Codëin und Brucin | 1,58 |
Brucin und Chinin | 0,32 |
Auf polarimetrischem Wege versuchte Jellet auch das Reaktionsvermögen einer starken Base, z. B. von Kaliumhydroxyd, mit dem Reaktionsvermögen einer organischen Base zu vergleichen. Fügte er z. B. Essigsäure zu einer Lösung der beiden Basen Kaliumhydroxyd und Strychnin, so trat eine Änderung des Drehungsvermögens erst ein, nachdem das Kaliumhydroxyd nahezu völlig von der Säure neutralisiert worden war. In dem Momente, in dem sich das Drehungsvermögen änderte, begann die Neutralisation des Strychnins. In dem Gemenge wird nämlich die Drehung der Polarisationsebene nur durch das Strychnin und durch das salzsaure Strychnin veranlaßt, die überdies ein verschieden großes Drehungsvermögen besitzen.
Jellet befaßte sich auch mit der Frage, ob das chemische Gleichgewicht als ein statisches oder ein dynamisches aufzufassen ist. Der Ausdruck statisches Gleichgewicht bedeutet, daß die in einer Lösung befindlichen Molekeln sich in ihrer Zusammensetzung nicht ändern, solange die Umstände dieselben bleiben. Beim dynamischen Gleichgewicht findet dagegen fortwährend Zerfall und Rückbildung statt. Diese Vorgänge müssen sich jedoch gegenseitig vollkommen ausgleichen, da sich das Verhältnis der in der Lösung befindlichen Substanzen, nachdem das Gleichgewicht eingetreten ist, nicht mehr ändert, solange die Bedingungen dieselben bleiben. Obgleich sich sowohl die statische wie die dynamische Auffassung mit den Tatsachen deckt, hielt Jellet letztere doch für wahrscheinlicher.
Jellets »chemisch-optische Untersuchungen« sind eins der hervorragendsten Beispiele für die Anwendung einer physikalischen Methode auf ein chemisches Problem. Den Einblick, den Jellet mit den Mitteln der Optik erreichen wollte, suchten andere Forscher durch thermochemische Untersuchungen zu gewinnen. Nachdem besonders Laplace und Lavoisier die bei chemischen Vorgängen frei werdende Wärme mit Hilfe des von ihnen geschaffenen Eiskalorimeters messen gelehrt hatten509, entwickelte sich die Vorstellung, daß die erzeugten Wärmemengen als ein Maß für die Affinität zu betrachten seien, während sie in Wahrheit nur ein Maß für die chemische Energie abgeben. Auch Hess510, der sich zuerst um die Entdeckung der Gesetze bemüht hat, nach denen sich die thermochemischen Vorgänge abspielen, ließ sich von jener Vorstellung leiten. Er glaubte, daß die genaue Wärmebestimmung ein relatives Maß für die chemische Affinität darbieten und zur Entdeckung ihrer Gesetze führen werde. Nun hängt aber Wärmetönung, d. h. die bei einem chemischen Umsatz entwickelte, in Wärmeeinheiten ausgedrückte Energie, nicht ausschließlich von der Affinität der eine Verbindung eingehenden Stoffe ab. Es geht vielmehr der Energieerzeugung ein Energieaufwand zur Lösung der vor dem Umsatz bestehenden Verbindungen parallel. Dieser Aufwand[Pg 348] an Energie ist in gewissen Fällen sogar größer als die erzeugte Energie. In solchen Fällen wird die Wärmetönung sogar negativ, d. h. der chemische Umsatz erfolgt unter Absorption von Wärme. Ein Beispiel511 ist die Vereinigung von Jod und Wasserstoff zu Jodwasserstoff. Dieser Vorgang findet nicht unter Wärmeerzeugung, sondern unter beträchtlichem Verbrauch von Wärme statt. Ihre Erklärung findet die negative Wärmetönung in diesem Falle darin, daß die Affinität zwischen Jod und Wasserstoff geringer ist als die zwischen den Jodatomen und den Wasserstoffatomen bestehenden Affinitäten. Der Vorgang verläuft nämlich nicht nach der Gleichung H + J = HJ, sondern es findet ein Umsatz zwischen den Molekülen der Elemente statt:
HH + JJ = HJ + HJ
Um die Grundlagen für die Thermochemie zu schaffen, mußte Hess zunächst die Methoden für die Wärmemessung ausgestalten. Er tat dies, indem er ein für seine Zwecke geeignetes Kalorimeter herstellte und die gewonnenen Ergebnisse berechnen und vergleichen lehrte.
Die Einrichtung des von Hess konstruierten Kalorimeters wird durch nebenstehende Abbildung 53 erläutert. In dem Kasten, der zur Aufnahme des Wassers dient, das die erzeugte Wärme aufnehmen soll, befindet sich ein drehbarer Zylinder A. In diesen Zylinder schüttet man die eine von den Substanzen, die man aufeinander wirken lassen will, während die andere zunächst in die Gefäße (a, a) gebracht wird. Darauf wird der Zylinder verschlossen und der Kasten, in dem er sich befindet, mit Wasser gefüllt. Wird der Zylinder jetzt gedreht, so mischen sich die Stoffe, die Reaktion tritt ein und die infolgedessen frei werdende Wärme wird dem Wasser mitgeteilt. Damit die Wärme sich in dem Wasser rasch verteilt, ist der Zylinder an seiner äußeren Fläche mit einigen Schaufeln (b) versehen. Zwischen ihnen ragt das Thermometer durch den Deckel des Kastens in den Apparat hinein.
Um seinen Messungen die erforderliche Genauigkeit zu geben,[Pg 349] zog Hess in Betracht, daß nicht nur das in den Kasten des Kalorimeters gefüllte Wasser, sondern auch der Apparat die bei der chemischen Reaktion erzeugte Wärme aufnimmt. Unter Berücksichtigung der Wärmekapazität und des Gewichtes des Kalorimeters ermittelte er den sogenannten Wasserwert seines 7500 g Wasser fassenden Apparates zu 309 g. Bei seinen Bestimmungen mußten für den mit 7500 g Wasser gefüllten Apparat also 7809 g Wasser in Ansatz gebracht werden. Ferner wurde in Betracht gezogen, daß auch die aufeinander reagierenden Substanzen einen Teil der erzeugten Wärme aufnehmen. Endlich wurden die gefundenen Werte für die untersuchten Stoffe auf das Molekulargewicht in Grammen bezogen.
Zur Erläuterung dieser für die thermochemische Untersuchung grundlegenden Methode diene folgendes Beispiel: In den Zylinder des Kalorimeters wurden abgewogene Mengen Schwefelsäure und Ammoniakflüssigkeit gebracht. Der Apparat enthielt 7500 g Wasser. Für den Apparat selbst und die beiden aufeinander wirkenden Substanzen waren 637 g als Wasserwert in Ansatz zu bringen. Die Summe war also 8137 g. Die Temperaturerhöhung betrug 5,52 Grad. Die Anzahl der entwickelten Grammkalorien belief sich somit auf 8137. 5,52 = 44919. Die angewandte Menge Schwefelsäure (H2SO4) betrug 92,5 g, entsprechend 75,5 g SO3. Rechnete man die gefundenen 44919 Kalorien auf 1 g SO3 um, so ergab sich, daß bei der Neutralisation von 1 g SO3 mit Ammoniak 595,8 Kalorien entwickelt werden.
Durch die Ausdehnung dieser Untersuchung auf Schwefelsäure von verschiedenem Wassergehalt fand Hess als Grundgesetz der Thermochemie, daß »die entwickelte Wärme konstant ist, mag die Verbindung direkt oder indirekt oder zu wiederholten Malen geschehen«. Hess erschloß dieses Gesetz, indem er die beim Neutralisieren von Ammoniak mit Schwefelsäure von verschiedener Konzentration erhaltenen Werte in folgender Weise übersichtlich zusammenstellte512:
Säure | Durch Verbindung mit dem Wasser entwickelte Wärme |
Durch Verbindung mit Ammoniak entwickelte Wärme |
Summe |
H2SO4 | 595,8 | 595,8 | |
H2SO4 + H2O | 77,8 | 518,9 | 596,7 |
H2SO4 + 2 H2O | 116,7 | 480,5 | 597,2 |
H2SO4 + 5 H2O | 446,2 | 155,6 | 601,8 |
Zur Erläuterung des von Hess gefundenen Gesetzes diene noch folgendes Beispiel: Verbrennt man eine bestimmte Menge Kohlenstoff (z. B. 12 g entsprechend dem Atomgewicht 12 des Kohlenstoffs) zu Kohlendioxyd (C + 2O = CO2), so entsteht die gleiche Wärmemenge (12 . 8080 Kal. = 96960 Kal.), die sich entwickelt, wenn man 12 g Kohlenstoff zunächst zu Kohlenmonoxyd (C + O = CO) und dieses dann zu Kohlendioxyd (CO + O = CO2) verbrennt.
Bei der Verbrennung von Kohlenmonoxyd zu Kohlendioxyd entwickeln sich auf 12 g Kohlenstoff bezogen 68080 Kalorien. Für die Umwandlung von Kohlenstoff in Kohlenmonoxyd ergibt sich somit aus dem Gesetz von Hess 96960 - 68080 = 28880 Kalorien, ein Wert, der sich direkt nicht messen läßt, da man die Verbrennung des Kohlenstoffs nicht so regeln kann, daß nur Kohlenmonoxyd entsteht.
Wie man später erkannte, stehen das von Hess entdeckte Gesetz von der Konstanz der Wärmesummen, sowie das schon von Lavoisier und Laplace aufgestellte Prinzip, daß zur Zerlegung einer Verbindung ebensoviel Wärme aufgewendet werden muß, wie bei ihrer Entstehung frei wird, in vollem Einklang mit dem Energieprinzip, das zu der Zeit, als Hess seine Ergebnisse veröffentlichte, noch nicht ausgesprochen war, wenn auch alles schon auf dieses allgemeinste Prinzip, aus dem man später alle anderen als Einzelfälle folgern konnte, hinzielte.
Nachdem das Energieprinzip gefunden war, bewegten sich denn auch die weiteren Untersuchungen nach der Richtung, die Übereinstimmung der thermochemischen Vorgänge mit dem Energieprinzip im einzelnen nachzuweisen. Um die weitere Entwicklung der kalorimetrischen Methoden haben sich besonders Favre und Silbermann513 verdient gemacht. Ihnen, wie dem Dänen J. Thomsen514, der seit 1853 die Thermochemie mit der mechanischen Wärmetheorie in die engste Verbindung brachte, ist eine große Anzahl von einzelnen Bestimmungen zu verdanken. Auch der französische Forscher Berthelot hat Hervorragendes auf diesem Gebiete geleistet.
Wie die mit dem Entstehen einer chemischen Verbindung verknüpfte Wärmetönung, so schien auch die durch Erhitzen eintretende Art des Zerfalles, die man Dissoziation genannt hat, geeignet, zur Lösung des Affinitätsproblemes beizutragen. Nach der mechanischen Wärmetheorie setzt sich der Wärmeinhalt einer Verbindung aus den Bewegungen der Moleküle und aus denjenigen Bewegungen zusammen, welche die Atome innerhalb der Moleküle vollziehen. Eine Zufuhr von Energie steigert die Intensitäten beider Bewegungen. Der auf die Atombewegung entfallende Anteil kann schließlich so groß werden, daß die Atomenergie die zwischen den Atomen wirkende chemische Anziehung übersteigt und daß infolgedessen Zerfall stattfindet. Diesen Vorgang hat man als Dissoziation515 bezeichnet. Mit dem Aufhören der Ursache, d. h. bei der Abkühlung, kehrt sich die Reaktion um, d. h. es findet eine Wiedervereinigung der Zerfallsprodukte statt.
Auf die Dissoziation wurde man besonders durch die Entdeckung der abnormen Dampfdichten aufmerksam. Nach der Avogadroschen Regel stehen Dampfdichte und Molekulargewicht bekanntlich in einer engen Beziehung, die nach Avogadros Annahme ihren Grund darin hat, daß gleiche Volumina gasförmiger Substanzen unter denselben physikalischen Bedingungen die gleiche Zahl von Molekülen enthalten. Aus der Dampfdichte einer Substanz läßt sich danach das relative Gewicht des Moleküls berechnen. Ist das letztere auf anderem Wege bekannt oder wahrscheinlich geworden, so bietet umgekehrt die Bestimmung der Dampfdichte ein Mittel, um das Molekulargewicht auf seine Richtigkeit zu prüfen. Nun ergab sich für Salmiak, daß seine Dampfdichte nicht der dieser Verbindung zugeschriebenen Formel NH4Cl entspricht. Die Dampfdichte des Salmiaks erwies sich fast um die Hälfte kleiner als die aus der Formel berechnete oder, was ja dasselbe bedeutet, der Salmiakdampf nahm etwa das Doppelte des Volumens ein, das ihm auf Grund der Avogadroschen Regel zukam. Wollte man an der Richtigkeit dieser Regel festhalten, so mußte man annehmen, daß sich das Salmiakmolekül beim Erhitzen in zwei Moleküle, entsprechend der Gleichung
NH4Cl = NH3 + HCl,
spaltet.
Daß tatsächlich eine Dissoziation des Salmiaks in diesem Sinne stattfindet, hat man aus dem physikalischen Verhalten der dissoziierten Verbindung geschlossen. Läßt man sie nämlich im dissoziierten Zustande durch einen porösen Stoff diffundieren, so findet dabei nach den bekannten Gesetzen516 der Diffusion eine teilweise Trennung der Zerfallsprodukte statt.
Mit den Erscheinungen und mit der Theorie der Dissoziation hat sich besonders Horstmann beschäftigt517. Als das Eigentümliche der Dissoziationserscheinungen hob er hervor, daß die Dissoziation sich nur über einen Teil der diesem Vorgange unterworfenen Substanz erstreckt, obgleich die Substanz in allen ihren Teilen den gleichen Einflüssen unterworfen ist. Die abnorme Verminderung der Dichte oder, was ja dasselbe ist, die abnorme Zunahme des Volumens tritt nämlich nicht bei einer bestimmten Temperatur plötzlich ein, sondern sie vollzieht sich allmählich, bis die Dissoziation beendet ist oder einen gewissen Maximalwert erreicht hat. Von diesem Augenblicke an nimmt das Volumen bei weiterer Temperatursteigerung wieder in normaler Weise, d. h. in Übereinstimmung mit dem Gesetze zu, nach dem sich die Ausdehnung regelt, welche die Gase beim Erhitzen erfahren. Der Grad der Dissoziation hängt von den jeweilig vorhandenen Umständen, wie der Temperatur, dem Druck, den Mengen der in chemischer Wechselwirkung stehenden Stoffe usw. ab. In dem von Horstmann besonders untersuchten Falle befinden sich also NH3, HCl und noch nicht dissoziiertes NH4Cl in einem ähnlichen, von den genannten Umständen abhängenden Gleichgewichtszustande wie die Säure und die beiden Basen in dem von Jellet mit dem Polarimeter untersuchten Falle518. Wie Thomsen das Gebiet der[Pg 353] Wärmetönung, so suchte Horstmann die Erscheinungen der Dissoziation vom Standpunkte der mechanischen Wärmetheorie verständlich zu machen. Er tat dies, indem er den stationären Grenzzustand, den ein in sich abgeschlossenes System von Molekülen bei der Dissoziation erkennen läßt, als ein Analogon jenes allgemeinen Gesetzes betrachtete, das Clausius in den Ausdruck kleidete: Die Entropie der Welt strebt einem Maximum zu.
Einen sehr wertvollen Beitrag zur Theorie der Dissoziation lieferte zu Beginn der siebziger Jahre der schwedische Forscher Guldberg519. Er zeigte, daß das Dissoziationsphänomen nur ein besonderer Fall von Zersetzung der chemischen Verbindungen ist, und daß sich die Theorie der Dissoziation aus den allgemeinen Gesetzen der chemischen Verbindungen herleiten läßt. Unter den Zersetzungsarten bildet die Dissoziation nämlich den besonderen Fall, daß zwei Stoffe gleichzeitig und teilweise aus einer Verbindung in dem Verhältnis austreten, in dem sie in der Verbindung enthalten sind. Dann behält der Rest der Verbindung seine konstante Zusammensetzung. In dem typischen Beispiel, das der Salmiak (NH4Cl) bietet, treten gleichzeitig Ammoniak (NH3) und Salzsäure (HCl) zu einem Teil aus der Verbindung aus, und der unzersetzte Rest, der seine Zusammensetzung nicht verändert hat, ist Salmiak.
Zunächst hatte man das Dissoziationsproblem nur für die nach festen Verhältnissen zusammengesetzten chemischen Verbindungen ins Auge gefaßt. Guldberg dehnte den Begriff auf die von ihm als unbestimmte chemische Verbindungen bezeichneten Substanzen aus. Eine solche Verbindung ist z. B. gesättigte Salzlösung. Wird sie verdampft, so tritt gleichzeitig Wasser in Dampfform und Salz in fester Form aus, während die zurückbleibende Salzlösung ihre Zusammensetzung beibehält.
Der für den Verlauf der Dissoziation charakteristische Wert ist nach Guldberg diejenige Temperatur, bei der sie ihren Anfang nimmt. Gewöhnlich bestimmt man diese Temperatur für den Druck einer Atmosphäre. Bei geringerem oder stärkerem Druck gelangt man zu anderen Werten. Der Dissoziationsgrad, d. h. der Betrag der Zersetzung, ist also sowohl von der Temperatur als vom Druck[Pg 354] abhängig. In dem Augenblicke, in dem die Dissoziation beginnt, können offenbar gleichzeitig unter demselben Druck und bei derselben Temperatur sowohl die Verbindung wie die Bestandteile, die sich von ihr abzulösen streben, bestehen. Unmittelbar vor dem Beginn der Dissoziation ist der Druck, den diese Bestandteile ausüben gleich Null. Mit der Steigerung der Temperatur wächst auch der Druck. Letzterer ist eine Funktion der Temperatur, was sich durch die Gleichung p = φ(t) ausdrücken läßt. Für den Wert p = 0 ergibt diese Gleichung die Temperatur, bei welcher die Dissoziation gerade einsetzt. Befinden sich die dissoziierten Substanzen und der Rest der noch nicht veränderten Verbindung in einem abgeschlossenen Raume und vergrößert man diesen, während man die Temperatur konstant erhält, so wird die Spannung sich verringern, und die Verbindung wird sich weiter dissoziieren, bis die Spannung wieder den der Temperatur entsprechenden Wert erreicht hat. Wird dagegen bei konstanter Temperatur der Raum verringert, so wächst die Spannung, und von den dissoziierten Substanzen wird eine solche Menge wieder vereinigt, bis die Spannung den der Temperatur entsprechenden Wert erreicht hat.
Den Zusammenhang der während der Dissoziation zwischen Druck und Temperatur besteht, hat Guldberg theoretisch abgeleitet, indem er von der Wärmetönung ausgeht, die mit der Bildung der Verbindung parallel läuft. Eine Bestätigung der wichtigen von Guldberg520 erhaltenen Formel hat später521 van't Hoff geliefert522.
Die zuletzt betrachteten Untersuchungen hatten es mit den Beziehungen zwischen chemischer Energie und Wärme zu tun. Es gibt aber auch Vorgänge, bei denen die chemische Energie sich in eine andere Energieform und zwar in Elektrizität umwandelt. Hierauf beruht die Wirkung der galvanischen Elemente. Von den in ihnen stattfindenden thermodynamischen Vorgängen soll jedoch an späterer Stelle die Rede sein523.
Gelegentlich der chemisch-optischen und der thermodynamischen Untersuchungen hatte sich die Aufmerksamkeit auch auf die Zeit[Pg 355] gerichtet, welche die chemischen Vorgänge für ihren Ablauf beanspruchen. Auch in diesem Falle knüpfte man an das Verhalten der Säuren zu den Basen an. Schon Wenzel524, der als einer der ersten die Prinzipien der Mechanik auf chemische Probleme anwandte, stellte Versuche über die Reaktionsgeschwindigkeit an. Er brachte Metallstücke von gleicher Oberfläche in Säuren von verschiedener Konzentration und beobachtete, in welcher Zeit gleich große Mengen Metall gelöst wurden. Das Ergebnis dieser Versuche sprach Wenzel folgendermaßen aus: »Wenn eine Säure in einer Stunde ein bestimmtes Gewicht Zink oder Kupfer auflöst, so braucht eine halb so starke Säure zwei Stunden dazu. Voraussetzung ist, daß die Temperaturen und die Oberflächen in beiden Fällen einander gleich bleiben«. Auch Berthollet hat dieses Prinzip, daß die Wirkung der wirkenden Masse proportional sei, ausgesprochen. Zum Gegenstande eingehender Untersuchung wurde es erst 1850 durch Wilhelmy gemacht525.
Wie Jellet zur Ermittlung des chemischen Gleichgewichts526, so bediente sich auch Wilhelmy für seine Zwecke der polarimetrischen Methode. Ferner vermied er die Anwendung eines festen Körpers. Wenzels Methode war nämlich, so einfach sie auf den ersten Blick erscheint, sehr ungenau, weil sich die Oberfläche des Metalles unter der Einwirkung der Säure fortwährend ändert. Von solchen Nebenumständen ist man unbeeinflußt, wenn man die Substanzen in Lösung anwendet. Wilhelmy löste deshalb Rohrzucker, der die Polarisationsebene nach rechts dreht, in Wasser und setzte eine Säure (z. B. Salpetersäure) hinzu. Infolge der Einwirkung der Säure, deren Menge dabei ungeändert bleibt, verwandelt sich der Rohrzucker unter Aufnahme von Wasser in Invertzucker:
C12H22O11 + H2O = 2 C6H12O6.
Die Umwandlung (Inversion) verläuft ziemlich langsam. Auch läßt sich für jeden Augenblick die Menge des noch nicht invertierten Zuckers aus dem jeweiligen Wert, den die Drehung der Polarisationsebene besitzt, angeben. Man konnte daher auch bei den zahlreichen späteren, über Massenwirkung und Reaktionsgeschwindigkeit angestellten Untersuchungen kaum eine bessere Methode finden als diejenige, die Wilhelmy mit so großem Geschick und Glück anwandte.
Das Verfahren, durch das Wilhelmy zur Entdeckung des Gesetzes der Reaktionsgeschwindigkeit geführt wurde, bestand darin, daß er zunächst an eine bestimmte Voraussetzung Überlegungen anknüpfte, diese mathematisch formulierte und endlich nachwies, daß die Messungsergebnisse der abgeleiteten Formel entsprechen. Bei der chemischen oder Reaktionsgeschwindigkeit handelt es sich nicht um Geschwindigkeit im Sinne der Mechanik, sondern um die in der Zeiteinheit umgewandelte Stoffmenge. Es werde z. B. in einer bestimmten Zeit (in der Minute) stets a = 1/10 des vorhandenen Stoffes umgewandelt. Dann ergibt sich für den Ablauf der Reaktion folgendes:
Zeit | anfangs vorhanden | umgesetzt | |||
während | des | 1. | Zeitteilchens | 1 | a |
" | " | 2. | " | 1-a | (1-a)a |
" | " | 3. | " | 1-a-(1-a)a = (1-a)2....(1-a)2a | |
" | " | 4. | " | (1-a)2-(1-a)2a = (1-a)3....(1-a)3a |
Nach Ablauf der Zeit t würde die noch vorhandene Menge sich also auf (1- a)t belaufen. Will man dem Umstande Rechnung tragen, daß die Verhältnisse sich nicht sprungweise von Zeitteilchen zu Zeitteilchen, sondern daß sie sich stetig ändern, so muß man die Zeitteilchen als sehr klein (der Grenze 0 sich nähernd) und ihre Zahl entsprechend groß (der Grenze ∞ sich nähernd) ansehen. Nähert sich das einzelne Zeitteilchen der Null, so tut das auch die umgewandelte Menge. Der Ausdruck (1-a)t nimmt also, wenn wir uns der infinitesimalen Betrachtungsweise bedienen, die Form (1 - 0)∞ an. Löst man diesen Ausdruck mit den Hilfsmitteln der Differentialrechnung, so ergibt sich für a der Wert:
a = 1/t l 1/(1 - x)
In diesem Ausdruck ist x die in der Zeit t (in Minuten)[Pg 357] umgewandelte, 1 - x also die nach Ablauf der Zeit t noch vorhandene Menge527.
Es wird also in jedem Zeitteilchen ein konstanter Bruchteil der Verbindung umgesetzt, oder die Wirkung ist stets der wirkenden Masse proportional. Daß dieses zuerst mehr vermutete als sicher nachgewiesene Gesetz tatsächlich gültig ist, hat Wilhelmy durch folgende experimentelle Prüfung nachgewiesen. Er mischte die Zuckerlösung mit der Säure. Der Drehungswinkel betrug vor der Mischung 46°,75. Nach Ablauf von 15 Minuten betrug er nur noch 43°,75. Für diesen Wert berechnet sich log 1/(1 - x) zu 0,0204 und 1/t log 1/(1 - x) = 0,0013528.
Wurde von 15 zu 15 Minuten gemessen und danach jedesmal a ermittelt, so ergab sich folgende Tabelle:
t (in Minuten); | Drehung; | log 1/(1 - x); | 1/t log 1/(1 - x) |
15 | 43°,75 | 0,0204 | 0,0013 |
30 | 41° | 0,0399 | 0,0013 |
45 | 38°,25 | 0,0605 | 0,0013 |
60 | 35°,75 | 0,0799 | 0,0013 |
75 | 33°,25 | 0,1003 | 0,0013 |
Der Wert 1/t log 1/(1 - x), den wir für a abgeleitet haben, läßt also eine konstante Beziehung zwischen der Zeit t und der in dieser Zeit umgewandelten Menge x erkennen. Denn 1/t log 1/(1 - x) ergab für alle untersuchten Einzelfälle der experimentellen Untersuchung stets[Pg 358] denselben Wert 0,0013. Erst in der 5. Dezimale traten Abweichungen auf, die innerhalb der Grenzen der Beobachtungsfehler lagen.
Wilhelmy kam also zu dem Gesamtergebnis, daß das Massenwirkungsgesetz, das man zuerst aus rohen Versuchen und ohne Rücksicht auf die Kontinuität des Vorganges abgeleitet hatte, für die von ihm untersuchten chemischen Vorgänge und mit Rücksicht darauf, daß sich die Verhältnisse in der Natur nicht sprungweise, sondern kontinuierlich ändern, streng gültig ist.
Da wir log 1/(1 - x) durch die Anzahl der verflossenen Zeiteinheiten (Minuten) dividierten, um zu a = 1/t log 1/(1 - x) zu gelangen, so stellt a das Maß der Reaktionsgeschwindigkeit vor529.
Wilhelmys Arbeit wurde zunächst kaum beachtet. Man war auf dem Gebiete der Chemie um die Mitte des 19. Jahrhunderts so ausschließlich mit dem Einzelstudium und mit der Gruppierung der sich in ungeheurer Fülle aufdrängenden organischen Verbindungen beschäftigt, daß für Untersuchungen allgemeinerer Art das Interesse nur gering war. Es dauerte länger als ein Jahrzehnt, bis die Untersuchung des Ablaufs der chemischen Umsetzungen besonders durch Berthelot und durch Guldberg und Waage wieder aufgenommen wurde, um in der neuesten Phase der Entwicklung der allgemeinen und der physikalischen Chemie, im Mittelpunkte des Interesses zu stehen.
Während Jellet und Wilhelmy sich zur Untersuchung des chemischen Gleichgewichts einer physikalischen Methode bedienten, verfolgte Berthelot das gleiche Problem auf chemischem Wege. An Stelle des von Jellet benutzten polaristrobometrischen Verfahrens trat bei Berthelot die seit der Zeit Gay-Lussacs emporgeblühte, für die quantitative Bestimmung in der Lösung befindlicher Stoffe so vorzüglich geeignete maßanalytische oder Titriermethode. Im übrigen stellten sich beide Forscher das gleiche Problem, nämlich den zwischen Basen und Säuren stattfindenden Reaktionsverlauf in bezug auf seine Geschwindigkeit und das resultierende chemische Gleichgewicht zu erforschen. Berthelot wählte für seine Untersuchung die der Salzbildung ganz entsprechende Entstehung der zusammengesetzten Äther530. Sein[Pg 359] Verfahren bestand darin, daß er die Stoffe, deren wechselseitige Wirkung er ermitteln wollte, in zugeschmolzenen Röhren längere oder kürzere Zeit erhitzte. Die erhaltenen Produkte wurden analysiert und daraus die Ergebnisse der Umsetzung berechnet. Zu den einfachsten und von Berthelot am genauesten untersuchten Vorgängen dieser Art gehört die Bildung von Essigsäureäther aus Essigsäure und Alkohol. Sie erfolgt nach der Gleichung:
C2H5OH + CH3COOH = CH3COO.C2H5 + H2O
Den Essigsäureäther betrachtete Berthelot gewissermaßen als ein Salz der Essigsäure, in dem sich an Stelle des Metalls ein Kohlenwasserstoffrest (C2H5) befindet. Die vier Stoffe, die für den Umsatz in Betracht kommen, nämlich Alkohol, Säure, Äther und Wasser, stehen in so festen quantitativen Beziehungen, daß man letztere alle aus der Kenntnis des Gewichtes eines einzelnen Stoffes ableiten kann:
C2H5OH | + CH3COOH | = CH3COOC2H5 | + H2O |
46 Gewichtst. | + 60 Gewichtst. | = 88 Gewichtst. | + 18 Gewichtst. |
Es genügt also, die Säure vor und nach dem Umsatz maßanalytisch zu bestimmen, um zu erfahren, wieviel Äther entstanden ist. Die Menge der verbrauchten Säure ist nämlich der Menge des entstandenen Äthers proportional. Angenommen, man habe 46 Gewichtsteile Alkohol mit 60 Gewichtsteilen Säure erhitzt und nach Beendigung des Prozesses 30 Gewichtst. Säure in dem Gemisch gefunden, so haben sich 44 Gewichtst. Äther gebildet. Ein völliger Umsatz, wie ihn die Gleichung angibt, findet nämlich nicht statt. Es ist das eins der wichtigsten Ergebnisse der Untersuchung. Der Umsatz geht vielmehr nur unvollständig und allmählich vor sich. Er verlangsamt sich immer mehr. Es ist, als ob die Menge[Pg 360] des Äthers, die sich unter bestimmten Bedingungen bildet, einer festen Grenze zustrebt. Das Ergebnis ist ein Gleichgewichtszustand, der sich in einem aus Alkohol, Säure, Äther und Wasser bestehenden System herausbildet. Die Bedingungen, von denen dieser Zustand abhängt, sind teils physikalische, teils chemische. Unter den physikalischen stehen Temperatur und Druck, unter den chemischen die besondere Eigenart der aufeinander reagierenden Stoffe und ihr Massenverhältnis an erster Stelle. Berthelot untersuchte den Einfluß dieser Bedingungen, indem er eine Bedingung allein abänderte, während die übrigen sich gleich blieben. So ergab sich, daß eine Erhöhung der Temperatur die Ätherbildung und auch ihre Umkehrung, nämlich die Zersetzung von Äther durch Wasser beschleunigte. Von weit geringerem Einfluß, was den Verlauf der Reaktion betrifft, erwies sich der auf flüssige Systeme ausgeübte Druck. Dieser Einfluß war so gering, daß er vernachlässigt werden konnte.
Was die Massenwirkung anbelangt, so zeigte sich die Wirkung des Wassers darin, daß das Wasser die Reaktionsgeschwindigkeit verlangsamt und die oben erwähnte Grenze für die Menge des entstehenden Äthers herabsetzt. Je verdünnter der Alkohol und die Essigsäure sind, die in Wechselwirkung treten, um so unvollständiger ist also der Umsatz. Ganz anders verläuft, wie Berthelot hervorhob, die Reaktion bei der eigentlichen Salzbildung. Hier übt die Verdünnung keinen wesentlichen Einfluß aus. Der Umsatz ist vielmehr, auch wenn verdünnte Lösungen von Basis und Säure aufeinander wirken, ein rascher und vollständiger. Daß die Ätherbildung viel Zeit erfordert und nur bis zu einer bestimmten Grenze fortschreitet, schreibt Berthelot zwei Umständen zu, die erst bei der Weiterentwicklung der allgemeinen Chemie in ihrer vollen Bedeutung erkannt wurden. Es ist das einmal der Umstand, daß mit der Einwirkung von Säure auf Alkohol nur eine geringe Wärmeentwicklung verbunden ist. Ferner spielt hier eine Rolle, daß die Alkohole und die Äther keine Elektrolyte sind.
Von besonderer Wichtigkeit war die schon von Berthollet531 erörterte Frage, welchen Einfluß es hat, wenn ein Stoff bei seiner Bildung sofort aus dem Gleichgewichtssystem entfernt wird, sei es weil er unlöslich, sei es weil er flüchtig ist. Berthelot entschied diese Frage, indem er dafür sorgte, daß dem System[Pg 361] Alkohol-Säure: Äther-Wasser das Wasser sogleich bei seinem Auftreten entzogen wurde. Er erreichte dies, indem er einen Alkohol und eine Säure wählte, die ebenso wie der entstehende Äther bei einer über 100° liegenden Temperatur beständig sind. In einem Falle ging der Prozeß bei einer Temperatur von 200° vor sich, ohne daß diese Temperatur eine Zersetzung oder Verflüchtigung der Komponenten oder des daraus entstandenen Äthers herbeiführte; dabei fand ein vollständiger Umsatz von Alkohol und Säure zu Äther statt532. Es zeigte sich also, daß das Wasser, das in diesem Falle gleich entfernt wurde, beim gewöhnlichen Ablauf der Reaktion die Ursache der Grenzbildung ist.
Berthollet war der erste, der die chemischen Vorgänge in seiner chemischen Statik auf mechanische Prinzipien zurückzuführen versucht hatte. Es war ihm aber noch nicht möglich gewesen, seine Theorien auf ein genügendes Tatsachenmaterial zu stützen. Es blieb das einer späteren Generation von Forschern vorbehalten, unter denen Jellet, Berthelot, van't Hoff, Guldberg und Waage in erster Linie zu nennen sind. Die gemeinsamen Untersuchungen der beiden zuletzt genannten Forscher schlossen sich an diejenigen Berthelots unmittelbar an. Es war eine das Allgemeine aus der Fülle der Einzelerscheinungen abstrahierende Wissenschaft, die aus diesen Forschungen erwuchs. Diese ganz neue, aus dem Studium der organischen Verbindungen erwachsene Mechanik ist, wie Berthelot sich ausdrückt, viel feiner und viel entwickelter als die Mechanik der gewöhnlichen Vorgänge der anorganischen Chemie. Sie untersucht nicht nur die Erscheinungen nach der Beendigung einer Reaktion, sondern auch die Reihe der Zustände, die vorangehen. Es handelt sich also um eine ganz neue Art der Beobachtung, um eine Chemie der Zeit. Zu einem gewissen Abschluß kamen diese Untersuchungen dadurch, daß Guldberg und Waage, van't Hoff und andere Forscher die Grundgesetze der chemischen Statik und Dynamik entwickelten.
Die ersten, die an die soeben geschilderten Ergebnisse Berthelots in gemeinsamer Untersuchung anknüpften, waren die genannten norwegischen Forscher, der Chemiker Waage und der Mathematiker Guldberg533.
Guldberg und Waage wurden von der Vorstellung geleitet, daß der Gleichgewichtszustand, der bei chemischen Prozessen zwischen den auf einander reagierenden Bestandteilen eintritt, kein statischer, sondern vielmehr ein dynamischer oder beweglicher sei, wie es schon Jellet bei seiner für dieses Gebiet grundlegenden Untersuchung angenommen hatte534.
Man betrachte z. B. den Fall, daß zwei Stoffe A und B in zwei neue Stoffe A1 und B1 umgesetzt werden, während gleichzeitig eine Rückbildung der ursprünglichen Stoffe A und B aus A1 und B1 stattfindet. In diesem Falle herrscht offenbar der Zustand des beweglichen Gleichgewichts, wenn in der Zeiteinheit die Neubildung und die Rückbildung gleich groß sind, der in die Erscheinung tretende, gesamte Umsatz also gleich Null ist. Anders ausgedrückt, heben sich die der Neubildung und der Rückbildung entsprechenden Reaktionsgeschwindigkeiten gegenseitig auf. Die totale Reaktionsgeschwindigkeit V in der für die chemische Kinetik geltenden Gleichung
V = v - v1
nimmt somit den Wert 0 an, und wir erhalten das Grundgesetz der chemischen Statik unter der Formel:
v - v1 = 0.
Ein Beispiel dieser Art, das Guldberg und Waage535 genauer untersuchten, ist die zwischen Bariumsulfat und Kaliumkarbonat stattfindende Wechselzersetzung:
BaSO4 | + | K2CO3 | = | BaCO3 | + | K2SO4 |
A | + | B | = | A1 | + | B1. |
Hier sind A und A1 unlösliche Verbindungen. Eine Vermehrung ihrer Massen ist nur von sehr geringer Wirkung. In Übereinstimmung mit der Theorie ergaben die Beobachtungen Gleichgewicht, wenn die löslichen Stoffe B und B1 in einem konstanten Verhältnis (4 : 1) stehen536.
Der Begriff der in eine chemische Reaktion eintretenden Masse, von dem Berthollet im Beginn des 19. Jahrhunderts ausging, wurde von Guldberg und Waage genauer bestimmt, indem diese Forscher das Verhältnis der Menge zum Volumen in Betracht zogen. Auf diese Weise erschien die Wirkung der Massen mit der Wirkung des Volumens verknüpft. Nach Guldberg und Waage ist die Wirkung der Massen dem Produkt der Massen, nachdem jede in eine bestimmte Potenz erhoben ist, direkt proportional. Verteilen sich aber dieselben Massen der wirkenden Stoffe auf verschiedene Volumina, so ist die Wirkung dieser Massen dem Volumen umgekehrt proportional. Die in der Volumeinheit des in Reaktion befindlichen Systems vorhandene Masse erhielt die Bezeichnung aktive Masse, ein Begriff, der mit demjenigen der Konzentration zusammenfällt.
Die Abhängigkeit des chemischen Gleichgewichts von der Konzentration machte van't Hoff im Jahre 1885 zum Gegenstande einer für die neuere Entwicklung der physikalischen Chemie sehr wichtigen Untersuchung537.
Van't Hoff knüpfte einerseits an Guldberg und Waage, andererseits an die auf dem Gebiete der Pflanzenphysiologie entstandenen osmotischen Untersuchungen eines Pfeffer, Traube und de Vries an. Wir haben an anderer Stelle das Eindringen in das Gebiet der osmotischen Erscheinungen von den ersten Schritten an verfolgt538. Dutrochet hatte die Osmose zu einer mechanischen Erklärung der Vegetationserscheinungen zu verwerten gesucht539. Später erkannte man, daß das lebende Protoplasma in hohem Grade die Eigenschaft besitzt, dem Durchgang gelöster Stoffe zu widerstehen und dadurch einen osmotischen Druck zu erzeugen. Auf diesem osmotischen Druck beruht z. B. der Turgor oder das Prallsein des frischen Blattes. Läßt der Turgor infolge äußerer Einflüsse (Frost, Wasserentziehung) nach, so wird das Blatt schlaff.
Um die in den lebenden Zellen wirkenden osmotischen Kräfte genauer kennen zu lernen, hatten die Pflanzenphysiologen sogenannte künstliche Zellen d. h. Membrane hergestellt, die in ihrem osmotischen Verhalten dem Plasmaschlauch sehr ähnlich sind. Eine derartige künstliche Membran erhält man z. B., wenn man nach dem Vorgange von Traube Kupfervitriol auf eine Lösung von gelbem Blutlaugensalz wirken läßt540. Um eine für Versuchszwecke geeignete Anordnung zu erhalten, füllt man eine poröse Tonzelle mit Kupfervitriollösung und taucht sie in eine Lösung von gelbem Blutlaugensalz. Die Membran bildet sich dann innerhalb der porösen Tonmasse und ist auf diese Weise am besten gegen ein Zerreißen geschützt. Einer derartigen Vorrichtung bediente sich der Pflanzenphysiologe Pfeffer541 und nach ihm zum Studium des chemisch-physikalischen Verhaltens gelöster Stoffe van't Hoff.
Die nebenstehende Abbildung 54 zeigt uns die Einrichtung des von Pfeffer benutzten Apparates. z ist die poröse Tonzelle, in der sich die Niederschlagsmembran gebildet hat. v und t sind eingekittete Glaszylinder. Mit t ist das Quecksilbermanometer m verbunden, das den osmotischen Druck zu messen gestattet.
Füllt man in die Zelle z eine 1%ige Zuckerlösung und stellt sie in reines Wasser, so äußert sich die Osmose darin, daß das Wasser in die Zelle hineinströmt, während der Zucker nicht heraustritt. Infolgedessen nimmt der Druck im Innern der Zelle und in dem mit ihr verbundenen Manometer zu, bis die Quecksilbersäule die Höhe von etwas über 50 cm erreicht hat. In den Pflanzenzellen machen sich osmotische Druckkräfte von 10 und mehr Atmosphären geltend.
Unter Verwertung der von Pfeffer mit diesem Apparat gewonnenen Resultate machte van't Hoff darauf aufmerksam, daß das von Boyle und Mariotte für die Gase nachgewiesene Gesetz der Proportionalität zwischen Druck und Dichte auch für die gelösten Stoffe gilt. Man muß nur berücksichtigen, daß der Dichtigkeit des Gases die Konzentration der Lösung entspricht.
Die Gültigkeit des Boyleschen Gesetzes für den gelösten Zustand ging aus folgenden Versuchsergebnissen hervor: Bezeichnet C die Konzentration einer Zuckerlösung und P den bei mittlerer Temperatur von dieser Lösung ausgeübten, mit dem Quecksilbermanometer gemessenen, osmotischen Druck, so erhält man:
C | P | P/C |
1,00% | 535 mm | 535 |
2,00% | 1016 mm | 508 |
4,00% | 2082 mm | 521 |
6,00% | 3075 mm | 513 |
Aus der genügenden Konstanz des Quotienten P/C ersieht man, daß der Druck sich proportional zur Konzentration ändert. Der gelöste Stoff übt somit ganz wie ein gasförmiger einen Druck auf die Wände des Gefäßes aus, in das er eingeschlossen ist.
Gilt für den gelösten Zustand das Gesetz von Boyle, nach dem sich das Verhältnis von Druck und Volumen für die Gase regelt, so ließ sich vermuten, daß die Lösungen auch dem zweiten[Pg 366] fundamentalen Gesetze der Aëromechanik folgen, das den Namen Gay-Lussacs trägt.
Es gelang van't Hoff die Gültigkeit des Gay-Lussacschen Gesetzes für den gelösten Zustand aus den Prinzipien der Thermodynamik abzuleiten und zu zeigen, daß die Versuchsergebnisse das theoretisch gewonnene Resultat bekräftigen. Der osmotische Druck ist danach proportional der absoluten Temperatur, wenn sich die Konzentration der Lösung nicht ändert. Daß eine Erhöhung der Temperatur den osmotischen Druck vergrößert, hatte übrigens schon Pfeffer beobachtet.
Wie für den gasförmigen Zustand, so lassen sich auch für die Lösungen die Gesetze von Boyle und von Gay-Lussac in die bekannte Formel542
P . V = (P0 V0 / 273) . T = RT
zusammenfassen. In dieser Formel bedeutet P den Druck, V das Volumen, beziehungsweise die Konzentration, T die absolute Temperatur (273 + t) und R die für eine gegebene Gasmenge konstante Größe
P0 V0 / 273.
Die zur schärferen Prüfung der Gesetze Boyles und Gay-Lussacs unternommenen Untersuchungen hatten ergeben, daß diese Gesetze keine absolute Gültigkeit besitzen, sondern Grenz- oder Annäherungsgesetze sind. Sie gelten genau genommen nur für einen idealen Gaszustand, bei dem die Moleküle keine Wirkung aufeinander ausüben. Das gleiche gilt für den gelösten Zustand. Sobald die Konzentration so groß wird, daß die gegenseitige Wirkung der Moleküle eine Rolle spielt, machen sich Abweichungen von den für den verdünnten Zustand geltenden Gesetzen bemerkbar. In diesem Sinne kann man mit van't Hoff von einer »idealen Lösung« als von einem Grenzzustande sprechen, dem sich die Lösungen beim Verdünnen mehr und mehr nähern, ohne ihn zu erreichen. Beide Grenzzustände, sowohl der für den gasförmigen als derjenige für den gelösten Zustand liegen nämlich nach mathematischer Ausdrucksweise im Unendlichen.
An die Ausdehnung der Gasgesetze auf gelöste Stoffe schloß sich der Nachweis, daß für letztere auch die Avogadrosche[Pg 367] Regel gilt, mit einem Wort, daß zwischen Gasen und Lösungen ein völliger Parallelismus besteht.
Um die Gültigkeit der Avogadroschen Regel für den gelösten Zustand nachzuweisen, ging van't Hoff von der Formel
PV = RT
aus, unter der sich die Gesetze von Boyle und von Gay-Lussac zusammenfassen lassen. In dieser Formel ist, wie oben dargetan R allein konstant. Wir wollen R die Gasinvariante nennen und der Gleichung die Form
R = PV/T
geben. Wählt man molekulare Mengen für die verschiedenen Gase, z. B. für Wasserstoff 2, für Kohlendioxyd 44, für Ammoniak 17 usw. (entsprechend den Formeln H2, CO2, NH3), so erhält R, da nach der Regel Avogadros molekulare Mengen der gasförmigen Stoffe bei gleichem Druck und gleicher Temperatur den gleichen Raum einnehmen, stets denselben Wert. Angenommen es befinde sich die molekulare Menge eines Gases in Kilogrammen im Kubikmeter, so erhält R den Wert 845,05.
Hat man an Stelle der Gase verdünnte Lösungen, für die ja, wie wir oben sahen, auch die Formel
R = PV/T
gilt, so erhält R gleichfalls denselben Wert, wenn es sich um molekulare Mengen der gelösten Stoffe handelt. Den Nachweis, daß Avogadros Gesetz auch für Lösungen gilt, führte van't Hoff wieder an den Versuchsergebnissen Pfeffers543. Aus den Beobachtungen dieses Forschers berechnet sich die Konstante R für eine 1%ige Zuckerlösung, in der sich ein Grammolekül Rohrzucker (C12H22O11 = 342) befindet, zu 842. In diesem Falle stimmt also die für den osmotischen Druck gefundene Konstante R mit der Gaskonstanten soweit überein, als sich dies im Hinblick auf die Versuchsfehler erwarten läßt. Der osmotische Druck des gelösten Rohrzuckers erwies sich somit als ebensogroß wie der Gasdruck, den die gelöste Substanz ausüben würde, wenn sie nach Entfernung des Lösungsmittels den gleichen Raum bei gleicher Temperatur ausfüllte. In der Bestimmung des osmotischen Druckes bietet sich also ein Mittel dar, um das Molekulargewicht einer Substanz zu ermitteln, die sich wie der Rohrzucker nicht un[Pg 368]zersetzt in den gasförmigen Zustand überführen läßt. Weitere, für den gleichen Zweck verwertbare Mittel sind die Gefrierpunktserniedrigung und die Dampfdruckverminderung der Lösung. Daß äquimolekulare Mengen verschiedener Stoffe den Gefrierpunkt, sowie den Dampfdruck des Lösungsmittels um gleichviel herabsetzen, hatte kurz vorher schon Raoult nachgewiesen. Van't Hoff gelang es, die von Raoult auf empirischem Wege gefundenen Regeln aus der Theorie vom osmotischen Druck abzuleiten und die molekulare Gefrierpunktserniedrigung, die ein Stoff in einem gegebenen Lösungsmittel hervorbringen muß, im voraus zu berechnen.
Nach der Aufstellung der Avogadroschen Regel hatte sich bekanntlich für gewisse Stoffe ein von dieser Regel abweichendes Verhalten ergeben. Die beobachteten Abweichungen hatten ihre Erklärung durch die Lehre von der Dissoziation gefunden544. Danach zerfällt unter Umständen ein Molekül in zwei oder mehr einfacher zusammengesetzte. Ähnliche Abweichungen, wie sie das Avogadrosche Gesetz für gasförmige Stoffe zeigt, hatte van't Hoff beobachtet, als er dies Gesetz auf den gelösten Zustand ausdehnte. Er mußte daher der allgemeinen Fassung, die er diesem Gesetze gab, sofort hinzufügen, daß der Formel
R = PV/T
nur die große Mehrzahl der von ihm untersuchten Stoffe folge. Insbesondere waren dies die Stoffe, welche die von Raoult entdeckte, normale molekulare Gefrierpunktserniedrigung zeigten.
Van't Hoff legte sich die Frage vor, ob die Avogadrosche Regel sich auf sämtliche gelösten Stoffe ausdehnen läßt, wenn man der konstanten R einen Koeffizienten i hinzufügt, und der Formel den folgenden allgemeinen Ausdruck gibt:
PV = iRT.
Für das normale Verhalten, wie es beispielsweise der Rohrzucker zeigt, würde dann i den Wert 1 annehmen.
Die Bemühungen van't Hoffs, den Faktor i durch die Bestimmung des osmotischen Druckes, der Dampfspannung oder des Gefrierpunktes zu ermitteln, waren von Erfolg gekrönt. Es ergab sich im allgemeinen eine genügende Übereinstimmung zwischen den auf so verschiedenen Wegen gefundenen Werten von i.
Die eigentliche Bedeutung dieses zuerst als rein empirisch betrachteten Koeffizienten i erkannte Arrhenius545. Er war es, der den sogenannten Aktivitätskoeffizienten i auf Grund elektrischer Messungen vorausberechnete und die Abweichungen, die van't Hoff zur Einführung von i bewogen hatten, durch seine Theorie von der elektrolytischen Dissoziation erklärte.
Die Anfänge dieser Theorie gehen auf die von Grotthuß begründete und von Hittorf, Clausius und Helmholtz weiter entwickelte Lehre von den Wanderungen der Ionen zurück.
Unter den Ionen versteht man nach Faradays Bezeichnungsweise die an den Polen (Kathode und Anode) bei der Elektrolyse sich abscheidenden Zersetzungsprodukte. Das am negativen Pol (der Kathode) sich abscheidende Produkt wird seitdem als Kation, das andere als Anion bezeichnet. Die erste Erklärung der Elektrolyse hatte schon lange vor Faraday Grotthuß gegeben. Grotthuß erklärte zunächst die Tatsache, daß die Ionen an zwei weit von einander entfernten Polen getrennt auftreten, anstatt überall in der sich zersetzenden Flüssigkeit zu entstehen. Er entwickelte seine Anschauungen in einer 1805 veröffentlichen Arbeit546. Ihr Titel lautet: Die Zersetzung des Wassers und der in ihm gelösten Körper durch galvanische Elektrizität. Die Theorie von Grotthuß beruht auf der Vorstellung, daß jedes Wassermolekül wie die gal[Pg 370]vanische Säule Polarität besitzt. Wie ein Lichtblitz, sagt Grotthuß, sei ihm dieser Gedanke gekommen. Der Vorgang der Elektrolyse, wie Grotthuß ihn sich dachte, wird aus der nebenstehenden Abbildung verständlich. Jedes Wassermolekül besteht aus einem negativ elektrischen Bestandteil, dem Sauerstoff, und aus einem positiv elektrischen, dem Wasserstoff. Unter dem Einfluß der Elektrizität der Pole werden die Wassermoleküle zunächst durch die ganze, zwischen den Polen befindliche Flüssigkeitsschicht so gerichtet, daß alle Sauerstoffatome dem positiven und alle Wasserstoffatome dem negativen Pole zugekehrt sind. Darauf findet in den Molekeln, welche die Pole unmittelbar berühren, eine Abscheidung derjenigen Atome statt, die von den Polen infolge des Gegensatzes der Elektrizitäten angezogen werden. Alle dazwischen befindlichen Molekeln tauschen ihre Bestandteile aus, ohne ihre Natur zu ändern. Betrachten wir der Einfachheit halber nur eine zwischen den Polen befindliche Kette von Wassermolekülen, deren Zahl gering (9) sein möge. Das Sauerstoffatom a1 des ersten Moleküls a1 b1 wird am positiven Pole abgeschieden. Darauf verbindet sich der frei gewordene Wasserstoff b1 mit dem Sauerstoff a2 des benachbarten Moleküls, und dieser Austausch vollzieht sich durch die ganze Kette, wie es die Klammern andeuten. Aus dem letzten, den negativen Pol berührenden Wassermolekül scheidet sich somit der positive Bestandteil b9 ab, während sich der negative a9 mit dem positiven des benachbarten Moleküls b8 verbindet. Es stammen also die beiden Ionen, die gleichzeitig frei werden, nicht aus derselben Wassermolekel, sondern aus zwei verschiedenen, die sich gerade in Berührung mit den Elektroden befinden.
Der erste wesentliche Fortschritt über die von Grotthuß geschaffene Theorie hinaus erfolgte erst ein halbes Jahrhundert später durch Hittorf547. Zwar war die Grotthuß noch be[Pg 371]herrschende Vorstellung, daß lediglich die Metalle, zwischen denen sich der Elektrolyt befindet, der Sitz der elektromotorischen Kräfte seien, der Faradayschen Vorstellung gewichen. Nach ihm sind die Pole oder Elektroden nur die Türen, durch welche die Elektrizität zu der einer Zersetzung unterliegenden Substanz ein- bzw. austritt. Die chemische Zersetzung wird nach dieser Vorstellung nicht durch die Anziehung der Pole, sondern durch die Wirkung des Stromes auf den Elektrolyten veranlaßt. Dementsprechend sind die in der Nähe der Pole befindlichen Molekeln nicht etwa einer mit dem Abstande vom Pole abnehmenden Kraft unterworfen, sondern die auf jede zwischen den Polen oder Elektroden befindliche Molekel wirkenden Kräfte sind überall gleich groß. Im übrigen blieb die von Grotthuß herrührende, durch Abb. 56 noch einmal zur Darstellung gebrachte Vorstellung bestehen. Hittorf entfernte zunächst eine Schwierigkeit, welcher dieser Vorstellung anhaftet. Stellt b die Anordnung der Teilchen dar, nachdem die Abscheidung eines Atoms des Kations und eines Atoms des Anions stattgefunden hat, so müssen sämtliche Molekel erst wieder um den gleichen Betrag von 180° gedreht werden, damit sie zu den Polen wieder in dieselbe Lage kommen. Die Reihe b muß also zunächst in die Reihe c übergehen, wenn die zweite Zerlegung stattfinden soll.
Hittorf vermeidet diese Schwierigkeit, indem er548 auf den Vorgang das in Abb. 57 dargestellte Bild anwendet. Die Ionen befinden sich danach übereinander, und die Elektrolyse besteht darin, daß sich die beiden Reihen aneinander vorbeischieben.
Unvereinbar mit der Theorie von Grotthuß war die schon um 1840 gemachte Beobachtung, daß sich die Konzentration einer Salzlösung bei ihrer Elektrolyse nicht gleichmäßig durch die ganze Masse ändert. Zersetzt man z. B. Kupfervitriol,[Pg 372] so tritt die Entfärbung am stärksten in der Nähe der Kathode auf. Hittorf befaßte sich mit einer sorgfältigen, messenden Untersuchung solcher Konzentrationsänderungen. Er erklärte sie durch die Annahme, daß die Ionen mit ungleicher Geschwindigkeit wandern. Da dieses Wandern schon durch die schwächsten Ströme veranlaßt wird, so nahm Hittorf im Widerspruch mit den damals herrschenden Vorstellungen an, daß die »Ionen eines Elektrolyten nicht in fester Weise zu Gesamtmolekülen verbunden sind«549.
Dagegen hatten die ersten elektrochemischen Theorien, z. B. die während des größten Teils des 19. Jahrhunderts geltende Theorie von Grotthuß, sich den Vorgang der Elektrolyse so vorgestellt, daß die Moleküle der Elektrolyten unter der Einwirkung der Elektrizität gespalten würden. Demgegenüber wies auch Clausius darauf hin (1857), daß schon der schwächste Strom imstande ist, eine Zerlegung des Elektrolyten zu bewirken, während doch zu einer Überwindung der chemischen Affinität die Stromstärke wahrscheinlich erst auf eine gewisse Größe angewachsen sein müßte. Clausius nahm daher an, daß die Moleküle des Elektrolyten stets in so lebhafter Bewegung seien, daß fortwährend Zerfall und Rückbildung stattfinde. Im Einklang damit stand die Tatsache, daß das Leitungsvermögen der Elektrolyte mit der Temperatur beträchtlich zunimmt. Zu der Vorstellung von Clausius neigte auch Helmholtz. Nach ihm sind die Zerfallsprodukte der Moleküle, die Ionen, mit bestimmten elektrischen Ladungen[Pg 373] versehen, die ihnen ganz andere Eigenschaften verleihen, als sie dieselbe Substanz im unelektrischen Zustande besitzt.
Diese Erkenntnis ist auch das Wesentliche der von Arrhenius entwickelten Anschauung. Durch seine Untersuchungen über die galvanische Leitfähigkeit der Elektrolyte stellte er fest, daß ein elektrolytisch leitender Stoff aus einem die Elektrizität leitenden Teil besteht, der einen gewissen Bruchteil der Gesamtmenge des Elektrolyten ausmacht, während der Rest, den Arrhenius zunächst als den inaktiven Teil bezeichnete, die Elektrizität nicht leitet. Der leitende aktive Teil des Elektrolyten ist nach Arrhenius darauf zurückzuführen, daß, ähnlich wie bei der Dissoziation der Gase, beim Auflösen gewisser chemischer Verbindungen (vor allem der Salze, Säuren und Basen) ein teilweiser Zerfall der Molekel, eine elektrolytische Dissoziation, eintritt. Durch diese Annahme wurde nun auch das abweichende osmotische Verhalten erklärlich, das van't Hoff zur Einführung des Faktors i in die für den gelösten Zustand geltende Gleichung
VP = RT
veranlaßt hatte550.
Den Schlußstein fügte Arrhenius in diese Reihe der für die physikalische Chemie grundlegenden Untersuchungen, indem er den Faktor i aus den für die elektrische Leitfähigkeit gefundenen Werten berechnen und sie mit der Wanderungsgeschwindigkeit der Ionen in Beziehung setzen lehrte.
Die exakten Wissenschaften waren durch eine gewaltige Summe experimenteller und darauf gegründeter theoretischer Arbeit im Verlauf des 19. Jahrhunderts zu einem wohlgegliederten und wenigstens in seinen Fundamenten festgefügten Lehrgebäude gelangt. Der Ausbau im einzelnen wurde während der letzten Jahrzehnte in solchem Maße gefördert, daß an dieser Stelle nur einige der wichtigsten, neueren Errungenschaften, welche die Keime weiteren Fortschritts in sich bergen, berührt werden können. Wir wenden uns zunächst den ältesten Zweigen der Naturlehre, nämlich der Mechanik, der Akustik und der Optik zu. Eine bemerkenswerte Erweiterung erfuhr die Mechanik dadurch, daß Helmholtz die Sätze von Green551 auf das Problem der Wirbelbewegung und die Bildung von Strahlen in Flüssigkeiten ausdehnte. Die grundlegende Abhandlung erschien im Jahre 1858 unter dem Titel »Über Integrale der hydrodynamischen Gleichungen, welche den Wirbelbewegungen entsprechen«552. Mit der mathematischen Analyse der Bewegung der Flüssigkeiten hatten sich schon Euler, Bernoulli und Lagrange553 beschäftigt. Besonders der letztere hatte seine Untersuchung vom Standpunkte der später von Green und Gauß weiter ausgebauten Potentialtheorie angestellt und dabei eine Funktion eingeführt, die Helmholtz als das Geschwindigkeitspotential bezeichnete. Helmholtz untersuchte besonders die Fälle, bei denen kein Geschwindigkeitspotential besteht, z. B. die Drehung einer Flüssigkeit um eine Achse mit gleicher Winkelgeschwindigkeit aller Teilchen. Diese Untersuchung führte Helmholtz zur Entdeckung einer merkwürdigen Analogie zwischen der Wirbelbewegung einer[Pg 375] Flüssigkeit und dem elektromagnetischen Verhalten elektrischer Ströme.
Von besonderem Interesse war der von Helmholtz nicht nur theoretisch, sondern auch experimentell554 geführte Nachweis der Existenz von Wirbelringen in Flüssigkeiten. An den Nachweis, daß solche in einer reibungslosen Flüssigkeit, z. B. im Äther, existierende Wirbel für alle Zeiten bestehen bleiben, knüpfte W. Thomson (Lord Kelvin) die Hypothese, daß die Atome solche Wirbelringe in dem als kontinuierliche Substanz gedachten Äther seien. Thomsons Wirbeltheorie zeigt immerhin trotz ihrer in hohem Grade hypothetischen Natur, daß sich die Vorstellung von der Kontinuität der Materie mit der atomistischen Auffassung unter Beseitigung der unvermittelten Fernwirkung vereinigen läßt.
Eine zweite, das Gebiet der Hydrodynamik betreffende Abhandlung veröffentlichte Helmholtz im Jahre 1868 unter dem Titel »Über diskontinuierliche Flüssigkeitsbewegungen«555. Helmholtz untersuchte darin unter anderem den Einfluß, den eine scharf ausgebildete Kante auf eine vorbeiströmende Flüssigkeit äußert, sowie den Fall, daß ein Flüssigkeitsstrahl aus einem weiten Raum in einen engen Kanal übergeht.
In naher Beziehung zu seinen hydrodynamischen stehen die von Helmholtz ausgeführten akustischen Untersuchungen. Die bedeutendste hierher gehörende Arbeit erschien im Jahre 1860 unter dem Titel »Theorie der Luftschwingungen in Röhren mit offenen Enden«556. Die ältere Theorie ging von der Annahme aus, daß die Luft in einer tönenden Pfeife in ebenen Schichten parallel der Achse hin und her schwinge. Für die von der Öffnung entfernteren Teile der Pfeife ist diese Annahme zulässig. Sie gilt aber um so weniger, je mehr man sich dem offenen Ende nähert. Mit ihrem Eintritt in den Außenraum müssen nämlich die ebenen Wellen in kugelförmige Wellen übergehen. Dieser Übergang erfolgt[Pg 376] allmählich. Die mathematische Analyse des Problems gehört zu den interessantesten Anwendungen der Potentialtheorie und der besonders von Green auf dem Gebiete dieser Theorie entwickelten Sätze. Die gewonnenen Resultate ließen sich auch benutzen, um die Stärke der Resonanz und die Phasen der erregten Schwingungen zu ermitteln, wenn man die Pfeife durch außerhalb befindliche schwingende Körper, z. B. eine Stimmgabel, zum Mittönen bringt.
Eine zusammenfassende Darstellung dieses Gebietes auf Grund der eigenen Forschungen gab Helmholtz in seinem berühmten Werke »Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik«557. Das Buch war vor allem dadurch epochemachend, daß es den ersten Versuch darstellte, eine Anzahl bisher getrennter Grenzgebiete zu vereinigen, nämlich die physikalische Akustik, die physiologische Akustik, die Musikwissenschaft und die Ästhetik der Musik mit ihren vorzugsweise auf psychologischen Momenten beruhenden Beziehungen.
Neu war in der Darstellung von Helmholtz vor allem die Lehre von den Obertönen und der Klangfarbe, sowie die Einsicht in die Zerlegung, welche die Klänge durch das Ohr erfahren. Helmholtz geht von der bekannten Tatsache aus, daß ein und dieselbe Note, wenn man sie auf einem Klavier, einer Violine, einer Trompete usw. angibt, trotz gleicher Stärke und gleicher Tonhöhe, doch ihre besondere, dem betreffenden Instrumente eigentümliche Klangfarbe besitzt. Von der Weite und der Dauer der Schwingung konnte sie nicht abhängen. Es blieb also zu untersuchen, ob und wie die Klangfarbe durch die Form oder die Zusammensetzung der Schwingung bestimmt wird. Die Analyse der Gesamtempfindung, die man als Klang bezeichnet, führte Helmholtz zu der Erkenntnis, daß in dem Klang außer dem Grundton noch eine Anzahl höherer Töne enthalten sind, die Helmholtz harmonische Obertöne nannte. Bei angestrengter Aufmerksamkeit vermag das Ohr solche Obertöne aus der als Klang bezeichneten Gesamtempfindung herauszuhören. Besser gelingt dies mit einem besonderen, von Helmholtz zu diesem Zweck erfundenen, als Resonator bezeichneten Instrument. Es besteht (Abb. 58) aus einer gläsernen Hohlkugel oder Röhre mit zwei Öffnungen. Die Öffnung a hat scharf abgeschnittene Ränder. Die Öffnung b ist so geformt, daß sie leicht in das Ohr gesetzt werden kann. Geschieht dies, so hört man die meisten[Pg 377] Töne, die in der Umgebung hervorgebracht werden, viel gedämpfter als sonst. Wird dagegen der Eigenton des Resonators in der Nähe angegeben, so »schmettert dieser mit gewaltiger Stärke in das Ohr hinein«558. Um die Klänge zu analysieren, schwache Töne neben stärkeren wahrzunehmen, Obertöne von dem Grundton zu unterscheiden usw. benutzte Helmholtz eine abgestimmte Reihe solcher Resonatoren. Auf die Einzelheiten dieser Untersuchung, die sich auf alle bekannteren Musikinstrumente und die menschliche Stimme erstreckte, kann hier nicht eingegangen werden.
Auch nach der rein physiologischen Seite hat Helmholtz die Theorie der Gehörempfindungen ganz wesentlich gefördert, indem er die Rolle des »Cortischen Organs« aufdeckte559. Durch die mikroskopisch-anatomische Erforschung des inneren Ohres war Corti560 auf die etwa 3000 Fasern in der Schnecke aufmerksam geworden, die mit den Fasern des Gehörnerven in Verbindung stehen. Diese elastischen Fasern, von denen man annimmt, daß jede einer bestimmten Schwingungszahl entspricht, werden durch Vermittlung des Trommelfells, der Gehörknöchelchen und der das innere Ohr erfüllenden Flüssigkeit in Mitschwingung versetzt und übertragen[Pg 378] ihrerseits den Reiz auf die Endigungen des Gehörnervens. Die Empfindung verschieden hoher Töne wird nach Helmholtz durch die Cortischen Fasern vermittelt. Die Empfindung der Klangfarbe würde darauf beruhen, daß ein Klang außer den einem Grundtone entsprechenden Corti'schen Fasern noch eine Anzahl anderer in Bewegung setzt, also in mehreren Gruppen von Nervenfasern Empfindungen auslöst. Das Ohr verhält sich den zusammengesetzten Klängen gegenüber danach wie eine Anzahl von abgestimmten Resonatoren, und das Hören erscheint, physikalisch betrachtet, als ein besonderer Fall des Mittönens.
Auch die neuere Theorie des Sehens hat durch Helmholtz ihre Grundlagen erhalten. Sie wurden in einem nicht minder epochemachenden Werk, in dem Handbuch der physiologischen Optik, zusammenfassend dargestellt. Mit der Physiologie des Auges hat sich Helmholtz besonders eingehend beschäftigt, nachdem er 1850 bei Gelegenheit seiner Vorträge über die Sinnesorgane auf die Erfindung des Augenspiegels gekommen war, eines Instrumentes, das den Augenärzten eine neue Welt erschloß. Helmholtz schrieb über diese für die Physiologie wie für die Heilkunde gleich wichtige Erfindung: »Sie erforderte weiter keine Kenntnisse, als was ich auf dem Gymnasium von Optik gelernt hatte, so daß es mir jetzt lächerlich vorkommt, wie andere Leute und ich selbst so vernagelt sein konnten, sie nicht früher zu finden. Es handelt sich nämlich um eine Kombination von Gläsern, die es ermöglicht, den dunklen Hintergrund des Auges zu beleuchten und gleichzeitig alle Einzelheiten der Netzhaut genau zu sehen, sogar genauer als man die äußeren Teile des Auges ohne Vergrößerung sieht, weil die durchsichtigen Teile des Auges dabei die Stelle einer Lupe von 20maliger Vergrößerung vertreten. Man sieht die Blutgefäße auf das Zierlichste verzweigt, den Eintritt des Sehnerven in das Auge usw.«.
Auch auf den Gedanken, die Fortpflanzungsgeschwindigkeit der Nervenreizung zu messen, ist Helmholtz gelegentlich der Vorbereitung zu den Vorlesungen gekommen, die er als Professor der Physiologie zu halten hatte. Aus diesem Grunde erklärte es Helmholtz für eine »sehr nützliche Nötigung, daß jeder Universitätslehrer alljährlich den ganzen Umfang seiner Wissenschaft vorzutragen« habe?
Auf die Erfindung des Augenspiegels, dessen ursprüngliche Einrichtung die nebenstehende Abbildung 59 erläutert, folgte eine[Pg 379] genaue Untersuchung des Problems der Akkommodation, mit dem sich schon dreihundert Jahre früher Kepler561 beschäftigt hatte. Der von Helmholtz zur Aufhellung des Problems gebaute Apparat, das Ophthalmometer, ließ erkennen, daß die Akkommodation, d. h. die Einstellung des Auges auf eine bestimmte Gegenstandsweite, darauf beruht, daß sich die Krümmung der vorderen, sowie der hinteren Linsenoberfläche ändert. Die Arbeit »Über die Akkommodation des Auges« erschien im Jahre 1855562. Ein Jahr später veröffentlichte Helmholtz den ersten Teil seines großen Handbuchs der physiologischen Optik, dessen Abfassung ihn bis zum Jahre 1866, also ein volles Jahrzehnt, beschäftigte. Es war ein Werk, in dem Helmholtz nach einem Ausspruch du Bois Reymonds den erwähnten Zweig der Physiologie »systematisch und literargeschichtlich in größter Vollständigkeit darstellte, von den mathematischen Anfangsgründen der theoretischen Optik bis zu den letzten erkenntnistheoretischen und ästhetischen Gesichtspunkten.« Nur »Die Lehre von den Tonempfindungen«, ein Werk, das Helmholtz 1862 veröffentlichte563, läßt sich der »Physiologischen Optik« an[Pg 380] die Seite stellen. Das zuletzt genannte Werk beginnt mit einer genauen anatomischen Beschreibung des Sehorgans. Es folgt die Dioptrik des Auges. Dieser Teil enthält zunächst eine allgemeine Darstellung der Lichtbrechung in Systemen kugliger Flächen und knüpft daran die Untersuchung des Strahlenganges im Auge. In dem zweiten Abschnitt, der sich mit der Lehre von den Gesichtsempfindungen befaßt, entwickelt Helmholtz die in ihren Grundlagen von Young herrührende physiologische Farbenlehre. Nach der Young-Helmholtzschen Theorie gibt es im Auge drei Arten von Nervenfasern. Reizung der einen erzeugt die Empfindung des Rot, Reizung der zweiten die des Grün und Reizung der dritten Art die des Violett. Das Licht erregt diese drei Arten von Fasern je nach seiner Wellenlänge in verschiedener Stärke. Die rotempfindenden Fasern werden am stärksten von dem Lichte größter Wellenlänge erregt, die grünempfindenden von dem Lichte mittlerer Wellenlänge und die violettempfindenden von dem Lichte kleinster Wellenlänge. Jede Spektralfarbe erregt alle Arten von Fasern, indessen die einen stark und die anderen schwach. Stellt man sich über den in Abb. 60 dargestellten, horizontalen Linien die Spektralfarben in der natürlichen Reihenfolge von Rot (R) bis bis Violett (V) vor, so entsprechen die drei Kurven etwa den Erregungsstärken der drei Arten von Nervenfasern.
Auch um den Ausbau der Lehre von den Gesichtswahrnehmungen, eines Gebietes, das auf der Grenze zwischen Physiologie und Psychologie steht und mit dem sich der dritte Abschnitt des Werkes beschäftigt, hat sich Helmholtz große Verdienste erworben. Er entdeckte nicht nur zahlreiche neue Tatsachen, sondern knüpfte auch an das ganze, große Gebiet der Sinneswahrnehmungen die wichtigsten, erkenntnistheoretischen Betrachtungen an. Die Theorie, die Helmholtz verfocht, hat man als die empiristische[Pg 381] bezeichnet. Sie entscheidet die Frage, wieweit die Vorstellungen mit den Objekten übereinstimmen, dahin, daß die Vorstellungen sowohl von der Natur des Wirkenden als auch von der Natur des wahrnehmenden Subjektes abhängen. Es hat daher keinen Sinn von einer anderen Wahrheit unserer Vorstellungen zu sprechen als von dieser gewissermaßen praktischen. Unsere Vorstellungen von den Dingen können nichts anderes sein als Zeichen für die Dinge, Zeichen, die wir zur Regelung unserer Bewegungen und Handlungen benutzen lernen. Ein anderer Vergleich zwischen den Vorstellungen und den Dingen ist nach Helmholtz nicht denkbar.
Während es sich für die älteren Zweige der Physik nur noch um einen Ausbau im einzelnen handelte, erfuhr die Elektrizitätslehre eine tiefergreifende Umgestaltung. Dies geschah vor allem dadurch, daß man mit elektrischen Oszillationen oder Wellen bekannt wurde. Die grundlegenden Untersuchungen auf diesem Gebiete rühren von Wheatstone und von Feddersen her. Wheatstone hatte beobachtet, daß die Entladung durch einen Funken nicht momentan erfolgt, sondern eine gewisse Zeit beansprucht. Seine Methode564 bestand darin, daß er den Funken in einem rasch sich drehenden Spiegel beobachtete und aus der Länge des Bildes und der Tourenzahl des Spiegels die Dauer der Lichterscheinung ermittelte. Rotierte der Spiegel nur langsam, so erschien der Funken als eine helle Linie. Je rascher der Spiegel sich bewegte, um so mehr wurde die Linie zu einem Lichtband ausgezogen. Bei 800 Umdrehungen in der Sekunde betrug die Breite dieses Lichtbandes z. B. 24 Grad. Daraus berechnete sich für diesen Fall die Dauer des Entladungsfunkens auf 0,000042 Sekunden.
Wheatstones spektroskopische Untersuchung des Entladungsfunkens ließ erkennen, daß die in seinem Spektrum auftretenden Linien von der chemischen Natur des positiv wie auch von derjenigen des negativ geladenem Körpers abhängen. Offenbar beweist dies, daß bei der Entladung von beiden Polkörpern glühende Teilchen mitgerissen werden565.
Wheatstones so einfacher und doch in ihren Ergebnissen so wunderbarer Methode, die Milliontel von Sekunden zu messen[Pg 382] gestattet, bediente sich auch Feddersen. Er richtete sein Augenmerk indessen nicht nur auf die Breite, sondern auch auf die Beschaffenheit des Lichtbandes, das er nicht nur beobachtete, sondern auch, um möglichst einwandfreie Ergebnisse zu erhalten, photographisch festhielt. Eins der von Feddersen erhaltenen Bilder566 zeigt die nebenstehende Abbildung 61567. Sie läßt erkennen, daß der Funken aus einer Reihe von Teilentladungen besteht, die allmählich schwächer werden. Die Zeit, die zwischen einem Strommaximum und dem nächstfolgenden verfließt, ist eine konstante, solange sich die Umstände nicht ändern. Vergrößert man dagegen die Länge des Schließungsdrahtes, so wird auch das Intervall zwischen zwei Teilentladungen ein größeres. Die weitere Untersuchung ergab, daß die Entladung nicht etwa aus einem Strom besteht, der in einer Reihe gleichgerichteter Partialströme zerfällt. Der Vorgang ließ sich vielmehr nur als ein Hin- und Herfließen der Elektrizität, mit anderen Worten als ein oszillatorischer auffassen. Auf theoretischem Wege waren Kirchhoff568 und Helmholtz zu dem gleichen Ergebnis gelangt. Helmholtz hatte diese Ansicht im Jahre 1847 in seiner Schrift über die Erhaltung der Kraft entwickelt569. Danach ist die Entladung nicht als eine Bewegung der Elektrizität in einer Richtung vorzustellen, sondern als ein Hin- und Herschwanken in Oszillationen, die immer kleiner werden, bis die ganze lebendige Kraft durch die Widerstände vernichtet ist.
Um die Dauer einer Oszillation zu bestimmen, ermittelte[Pg 383] Feddersen die Ausdehnung des Streifenbandes (Abb. 61) und dividierte sie durch die Zahl der Streifen. So ergab sich beispielsweise bei der Entladung einer Batterie von zehn Leydener Flaschen die Dauer einer Oszillation zu 0,00000304 Sekunden. Die Oszillationsdauer wurde bedeutend vergrößert, als Feddersen die Entladung durch einen längeren Schließungsbogen vor sich gehen ließ. Wählte er als solchen z. B. einen Draht von
15 m | Länge, | so war | die | Oszillationsdauer | 0,00000312'', bei |
115 m | Länge | betrug | " | " | 0,00000935'', bei |
1343 m | " | " | " | " | 0,00003980''. |
Der weitere Ausbau des durch Feddersen erschlossenen Gebietes der elektrischen Oszillationen erfolgte seit dem Jahre 1887 durch Hertz570. Hertz stellte sich die Aufgabe, die von Maxwell auf den Versuchen und Anschauungen Faradays aufgebaute Theorie durch weitere Versuche auf ihre Zulässigkeit zu prüfen. Nach der Faraday-Maxwellschen Theorie beruhen die elektrischen und magnetischen Vorgänge nicht auf einer unmittelbaren, den Raum überspringenden Fernkraft. Wir müssen diese Vorgänge vielmehr als die Folge einer Wirkung ansehen, die sich in einem Medium von Punkt zu Punkt fortpflanzt. Zur Prüfung dieser Theorie erschien Hertz nichts geeigneter als die Untersuchung, ob und wie sich die von Feddersen entdeckten elektrischen Schwingungen durch den Raum fortpflanzen. Dazu dienten ihm zwei Mittel. Zunächst rief er durch Anwendung eines geeigneten Induktionsapparates Schwingungen hervor, die etwa hundertmal so rasch wie diejenigen Feddersens erfolgten. Setzt man voraus, daß diese Schwingungen sich, wie Maxwells Theorie es forderte, mit der Geschwindigkeit des Lichtes wellenartig ausbreiten, dann mußte die Wellenlänge um so kleiner werden, je größer man die Schwingungszahl machte571. Das zweite Mittel, das Hertz für seine Zwecke schuf, war ein Instrument, mit dem[Pg 384] er das Feld in der Umgebung des die Oszillationen veranlassenden Induktionsapparates absuchte. Dies von ihm als elektrischer Resonator bezeichnete Instrument ist nichts weiter als ein rechteckig gebogener, an einer Stelle (M) unterbrochener Draht. Abbildung 62 zeigt uns die von Hertz benutzte Versuchsanordnung. Dem induzierenden Strom gab er die Gestalt einer geraden Linie. Ihre Enden wurden durch die Konduktoren C und C' gebildet. Das Rechteck abcd ist der Resonator. Der Nachweis der elektrischen Kräfte im Raum geschah mit Hilfe der feinen Funken, die unter gewissen Bedingungen an der Unterbrechungsstelle M des Resonators auftreten, wenn bei B eine oszillierende Entladung des primären Systems stattfindet.
Wie Hertz die Dimensionen seines Resonators gestaltete, um ihn sozusagen auf das primäre System abzustimmen, wie er ferner die Stellung und die Entfernung des Resonators in bezug auf den die Induktionswirkung erzeugenden Apparat abänderte, kann hier nicht im einzelnen dargelegt werden. Das erste Ergebnis war, daß Hertz elektrische Wellen nachzuweisen vermochte und stehende elektrische Wellen, ganz nach Analogie der akustischen und der optischen Erscheinungen, durch Reflexion hervorrufen konnte. Aus der Länge der Wellen und der Zahl der Oszillationen ergab sich die Geschwindigkeit ihrer Ausbreitung zu 300000 Kilometern in der Sekunde, ein Nachweis, durch den die von Maxwell angenommene Identität der optischen und der elektromagnetischen Strahlung eine wesentliche Stütze erhielt. Für jene Identität sprach auch der Umstand, daß Hertz mit den von ihm[Pg 385] erzeugten Strahlen elektrischer Kraft sämtliche elementaren Versuche anstellen konnte, die man mit dem Lichte und mit der strahlenden Wärme auszuführen gelernt hatte572. Der Nachweis der elektrischen Kräfte im Raum geschah auch hier mit Hilfe der feinen Funken, die bei den oszillierenden Entladungen des primären Systems in dem sekundären Leiter (dem Resonator) auftreten. Um die elektrischen Strahlen zu konzentrieren, bediente sich Hertz eines Hohlspiegels von der Form eines parabolischen Zylinders. Die Ausbreitung der Strahlen fand in der Richtung der optischen Achse statt. Die Strahlen ließen sich in einem zweiten Spiegel auffangen und im Brennpunkt durch den sekundären Leiter nachweisen. (Abb. 63.)
Brachte Hertz in die Verbindungslinie der Spiegel senkrecht zur Richtung der Strahlen einen Schirm aus Stanniol oder aus Zinkblech, so erloschen die sekundären Funken. Daß für die elektrischen Strahlen das in der Optik seit alters bekannte Reflexionsgesetz gilt, war schon durch die erfolgreiche Anwendung der Hohlspiegel dargetan. Durch seitliche Aufstellung des erwähnten Metallschirms wurde das Reflexionsgesetz für die Strahlen elektrischer Kraft noch besonders nachgewiesen. Die Versuchsanordnung ist durch Abbildung 64 ohne weiteres ersichtlich.
Zum Nachweise der Brechung der elektrischen Strahlen bediente sich Hertz eines etwa 12 Zentner schweren, aus Pech hergestellten Prismas. Daß die Strahlen in Transversalschwingungen[Pg 386] bestehen und im optischen Sinne geradlinig polarisiert sind, wurde dadurch nachgewiesen, daß man bei gekreuzter Stellung der Spiegel keine Funken im sekundären Leiter erhielt. Dasselbe erreichte Hertz durch Einschieben eines Drahtgitters, das in einer bestimmten Stellung die Strahlen ungehindert hindurchließ, um 90 Grad gedreht, sie aber zum Verschwinden brachte.
Aus allem ging hervor, daß es berechtigt schien, die Strahlen elektrischer Kraft als Lichtstrahlen von großer Wellenlänge zu bezeichnen. Daher durfte Hertz nach Abschluß seiner Versuche ausrufen573: »Die Verbindung zwischen Licht und Elektrizität, welche die Theorie ahnte, vermutete, voraussah, ist hergestellt. Von dem Punkte, den wir erreicht haben, eröffnet sich ein weiter Ausblick in beide Gebiete. Die Herrschaft der Optik beschränkt sich nicht mehr auf Ätherwellen, welche kleine Bruchteile des Millimeters messen, sie gewinnt Wellen, deren Längen nach Dezimetern, Metern, Kilometern rechnen. Und trotz dieser Vergrößerung erscheint sie uns, von hier gesehen, nur als ein kleines Anhängsel am Gebiete der Elektrizität.«
Mit dem Bekanntwerden der Versuche von Hertz trat das schon lange bestehende Problem der Telegraphie ohne Draht wieder in den Vordergrund. Eine teilweise Lösung hatte dieses Problem schon 1838 dadurch gefunden, daß Steinheil vorschlug, beim elektromagnetischen Telegraphen für die Rückleitung die Erde zu verwenden und auf diese Weise die Hälfte der Drahtleitung zu ersparen. Andere, weniger erfolgreiche Bemühungen liefen darauf hinaus, an Stelle des Drahtes natürliche oder künstliche Wasserläufe zu benutzen. Auch auf den Gedanken, die elektrische Induktion zu verwenden und die Induktionsvorgänge durch oszillierende Ströme zu verstärken, ist man schon vor Hertz gekommen. Hertz selbst soll sich übrigens während der wenigen Jahre, die ihm nach seiner großen Entdeckung noch beschieden waren, dem Gedanken gegenüber, daß sie sich praktisch verwerten lasse, ablehnend verhalten haben.
Dennoch hat es sich alsbald gezeigt, daß durch die Hertzschen Versuche das Problem in ein neues, Aussicht auf die besten Erfolge darbietendes Stadium gekommen war. Seit dem Jahre 1890 sehen wir eine große Zahl von Physikern und Elektroingenieuren[Pg 387] bemüht, die Funkentelegraphie durch den Bau geeigneter Induktionsapparate, ihre Verbindung mit besonderen Sendern, welche die elektrische Energie in den Raum hinausführen, und vor allem durch die Erfindung höchst empfindlicher Empfänger den Bedürfnissen der Praxis anzupassen. Der Erfolg war ein überraschender und die Vielseitigkeit in der Ausführung des Gedankens und in der Anwendung so groß, daß hier nicht näher darauf eingegangen werden kann. Das erste brauchbare System erzielte im Jahre 1896 Marconi, indem er den von Righi verbesserten Oszillator als Sender und an Stelle des Hertzschen Resonators die Branlysche Röhre574 als Empfänger benutzte.
Schon vor Branlys Erfindung hatte man beobachtet, daß metallischer Staub unter der Einwirkung von Induktionsströmen leitfähig wird. Branly schloß 1890 den Metallstaub in eine Glasröhre ein, in die er zwei Drähte treten ließ. Er zeigte, daß dies System unter der Einwirkung der Hertzschen Wellen eine bedeutende Leitfähigkeit erhält, die durch eine leichte Erschütterung wieder aufgehoben wird. Die Wirkung des Senders auf die Branlysche Röhre besteht darin, daß jeder von dem Sender ausgehende Impuls die Röhre befähigt, einen elektrischen Strom zu schließen und dadurch beispielsweise ein Läutewerk in Tätigkeit zu setzen. Gleichzeitig erschüttert der Klöpfel dieses Läutewerks die Röhre und befähigt sie durch Vernichtung der Leitfähigkeit zur Aufnahme eines neuen Zeichens.
Durch mannigfache Abänderungen des in seinem Wesen immer noch rätselhaften Aufnahmeapparats, sowie des Senders und der Nebeneinrichtungen ist es gelungen, eine abgestimmte Funkentelegraphie zu schaffen und eine Verständigung auf Entfernungen von mehreren tausend Kilometern herbeizuführen, unbemannte Boote und Luftschiffe zu lenken575, Geschütze abzufeuern, kurz Dinge zu leisten, die man vor wenigen Jahrzehnten noch ins Reich der Träume verwiesen haben würde.
Erwähnt sei unter den neuesten Aufnahmeapparaten (Detektoren) der elektrolytische Wellenanzeiger. In diesem Apparat ändert sich die Polarisation sofort, wenn durch die eintreffenden Schwingungen der schwächste Strom induziert wird. Ein anderer Apparat beruht auf der äußerst geringen Wärmewirkung, welche die ankommenden Wellen hervorzurufen vermögen. Man ist auch mit[Pg 388] Erfolg dazu übergegangen, die Antennen, die eine Höhe von mehreren hundert Metern erreichten, durch liegende Drähte (sogenannte Erdantennen) zu ersetzen. Auf diese Weise ließ sich eine Ausdehnung der Antennen erreichen, wie sie sich durch den Bau hoher Türme nicht ermöglichen läßt. Für die Sendeapparate benutzt man hochfrequente, elektrische Wechselströme in Verbindung mit dem 1906 von M. Wien erfundenen Löschfunkensender576.
Um die Fortbildung der neuen, durch Faraday geschaffenen theoretischen Vorstellungen hat sich besonders Maxwell577 verdient gemacht. Vor Faraday hatte man angenommen, daß die Wirkungen des Magneten und des elektrischen Stromes unvermittelte Fernwirkungen seien. Die Annahme einer durch keinen mechanischen Vorgang vermittelten Wirkung in die Ferne hatte man auch der Gravitationstheorie zugrunde gelegt, obgleich Newton sich durchaus nicht etwa entschieden für eine solche »actio in distans« ausgesprochen hatte. Während des 18. Jahrhunderts galt die unvermittelte Fernwirkung nicht nur für die Gravitation; sie wurde von Coulomb, der die Analogie zwischen der Gravitationswirkung und der Wirkung der elektrischen und magnetischen Kräfte erkannte, auch auf letztere ausgedehnt. Auch Weber, der in seinem Gesetz die elektrostatischen mit den elektromagnetischen und den Induktionserscheinungen zusammenfaßte, war in der im 18. Jahrhundert herrschenden Anschauung befangen geblieben. Erst durch Faraday trat hierin ein Wandel ein, dem sich die neuere Physik nur widerstrebend und ganz allmählich angepaßt hat.
Nach Faraday handelt es sich bei den schon vor ihm bekannten elektrischen, magnetischen und elektromagnetischen Vor[Pg 389]gängen, sowie bei der von ihm entdeckten Induktion stets um eine Wirkung, die sich durch die Luft oder irgend eine andere isolierende Substanz (das Diëlektrikum) von Teilchen zu Teilchen fortpflanzt. Dies war Faraday schon deshalb wahrscheinlich, weil sich eine scharfe Grenze zwischen Leitern und Nichtleitern gar nicht angeben läßt. Er nahm daher in dem Diëlektrikum einen Spannungszustand an, den er als den elektrotonischen bezeichnete. Um diesen Zustand genauer zu charakterisieren, bediente sich Faraday als eines Hilfsmittels imaginärer Kurven, die er Kraftlinien nannte. In der Richtung der Kraftlinie, beziehungsweise für jeden ihrer Punkte in der Richtung der Tangente, wirkt ein Zug, quer zu den Kraftlinien ein Druck. Dieser Vorstellung entsprechen beispielsweise die magnetischen Kurven oder Kraftlinien, in denen sich Eisenfeilspäne unter dem Einfluß eines Magneten anordnen.
Die magnetischen Kraftlinien sind die Bahnen, in denen sich ein freier magnetischer Pol in einem magnetischen Felde bewegen würde. Das Auseinanderweichen der Kraftlinien zeigt eine Abnahme, das Konvergieren eine Zunahme der Kraft an.
An die Stelle dieses reingeometrischen Modells der Kräfte, dessen sich Faraday bediente, setzte Maxwell ein anderes, das aber lediglich als eine Analogie und nicht etwa als eine Erklärung oder auch nur als Versuch einer Erklärung aufgefaßt werden darf. Unter einer physikalischen Analogie versteht Maxwell eine teilweise Ähnlichkeit zwischen den Gesetzen zweier Erscheinungsgebiete. Eine solche Ähnlichkeit setzt uns in die Lage, die Erscheinungen des einen Gebietes durch diejenigen des anderen zu erläutern. Eine derartige[Pg 390] Analogie besteht beispielsweise zwischen manchen Erscheinungen, die der elektrische Strom darbietet, und dem Verhalten einer strömenden Flüssigkeit. Maxwell bediente sich eines hydrodynamischen Modells zur Erläuterung der Wirkungen des elektrischen und des magnetischen Feldes. Er setzte an die Stelle der Kraftlinien Röhren von veränderlichem Querschnitt, in denen er sich eine nicht zusammendrückbare Flüssigkeit strömend dachte. Da die Geschwindigkeit einer solchen Flüssigkeit sich umgekehrt wie der Querschnitt der Röhre verhält, so läßt es sich einrichten, daß die Strömung an jeder Stelle durch ihre Geschwindigkeit die Größe und durch ihre Richtung gleichzeitig auch die Richtung der Kraft darstellt. Die von Maxwell gedachten Röhren füllen das magnetische oder das elektrische Feld so vollständig aus, daß keine Zwischenräume übrig bleiben. Die Röhrenwände reduzieren sich auf mathematische Flächen, welche die Bewegung einer den ganzen Raum erfüllenden Flüssigkeit bestimmen. Auf diese Weise vermochte es Maxwell, die Wirkungen von Magneten und elektrischen Strömen darzustellen und in mathematische Formeln zu kleiden, ohne damit irgend eine Annahme über das eigentliche Wesen des Magnetismus oder der Elektrizität gemacht zu haben.
Aus Maxwells Theorie ergab sich als eine der wichtigsten Folgerungen, daß sich die elektromagnetische Wirkung mit einer Geschwindigkeit ausbreitet, die mit der durch Fizeau ermittelten Geschwindigkeit des Lichtes nahezu übereinstimmt. Fizeau hatte für letztere 195600 englische Meilen in der Sekunde gemessen. Maxwells Berechnung ergab für die elektromagnetischen Wellen eine Fortpflanzungsgeschwindigkeit von 193000 englischen Meilen in der Sekunde. Es ließ sich daher der Gedanke kaum zurückweisen, daß das Licht aus Schwingungen desselben Mediums besteht, in dem sich auch die elektrischen und die magnetischen Vorgänge abspielen. Eine wichtige experimentelle Bestätigung dieser elektromagnetischen Theorie des Lichtes brachte Hertz, indem er für die Fortpflanzungsgeschwindigkeit der elektrischen Wellen denselben Wert fand, den Fizeau für das Licht ermittelt hatte578.
Auf eine enge Beziehung zwischen den optischen und den elektromagnetischen Erscheinungen war schon Faraday aufmerksam geworden, als er die Drehung der Polarisationsebene unter dem Einfluß eines Elektromagneten entdeckte579. Eine weitere[Pg 391] Beziehung wurde im Jahre 1896 durch Zeeman580 nachgewiesen. Als er eine mit Natrium gefärbte Flamme zwischen die Pole eines Elektromagneten brachte und ihr Licht mit dem Spektroskop untersuchte, nahm er eine Verbreiterung der Natriumlinien wahr. Wandte man starke Elektromagnete an, so wurden die Spektrallinien gespalten. Die merkwürdige, Zeeman-Effekt genannte Erscheinung erwies sich als abhängig von der Lage des Lichtstrahles zum magnetischen Kraftfelde. Zeemans Entdeckung ist für die heute herrschende Theorie von Lorentz von derselben Bedeutung wie die Hertzschen Versuche für diejenige Maxwells. Nach Lorentz beruhen die elektrischen Erscheinungen auf der Bewegung elektrisch geladener Teilchen, der Elektronen. Auf ihre Schwingungen ist auch das Licht zurückzuführen. In einem magnetischen Felde wirken auf die Elektronen beschleunigende und verzögernde Kräfte, aus denen sich die von Zeeman entdeckte Erscheinung erklären und in Übereinstimmung mit dem experimentellen Ergebnis berechnen läßt.
Die Theorie der galvanischen Elemente hat vor allem Helmholtz während der siebziger und der achtziger Jahre des 19. Jahrhunderts durch eine Reihe von Arbeiten gefördert. Sie wurden neuerdings unter dem Titel »Abhandlungen zur Thermodynamik chemischer Vorgänge« wieder herausgegeben581.
Die erste dieser Arbeiten erschien im Jahre 1877. Sie handelt über galvanische Ströme, verursacht durch Konzentrationsänderungen. Helmholtz hatte sich bereits in seiner epochemachenden Schrift über die Erhaltung der Kraft mit der Frage beschäftigt, ob sich die chemische Energie vollständig in elektrische Energie umwandeln läßt. Unter der Voraussetzung, daß dies der Fall ist, hatte er die elektromotorische Kraft einer galvanischen Kette berechnet. In der Arbeit vom Jahre 1877 wandte Helmholtz die beiden Hauptsätze der mechanischen Wärmetheorie auf das Problem des Energieumsatzes in der galvanischen Kette an. Als Beispiel wählte er die Konzentrationskette. Bei einer solchen wird der Strom ausschließlich durch Änderungen in der Konzentration einer Lösung geliefert. Bei der von Helmholtz untersuchten Konzentrationskette tauchen Kupferstäbe in zwei miteinander in Verbindung[Pg 392] stehende Gefäße. Befinden sich in diesen Kupfervitriollösungen von verschiedener Konzentration, so erhält man an den Kupferstäben eine Potentialdifferenz. Werden die Stäbe durch einen metallischen Leiter verbunden, so bewegt sich ein elektrischer Strom von dem in die konzentriertere Lösung eintauchenden Metall zu dem Metallstabe, der sich in der verdünnteren Lösung befindet. Dabei löst sich in der weniger konzentrierten Lösung Kupfer auf, während es sich in der konzentrierteren niederschlägt. Die Quelle des Stromes ist also einzig in dem Ausgleich der Konzentrationen zu suchen. Die Energie, die sich durch den Ausgleich der Konzentrationen gewinnen läßt, wurde berechnet, und es ließ sich zeigen, daß diese Energie der Arbeit der elektromotorischen Kraft gleich ist.
Im weiteren Verlaufe seiner Untersuchung wurde Helmholtz zu einer Gegenüberstellung des Begriffes der »freien Energie« zu dem Begriff »gebundene Energie« geführt. Unter der freien Energie versteht Helmholtz die ohne Rest ineinander verwandelbaren Arbeitsäquivalente der Naturkräfte. Der Wärmevorrat, von dem sich stets nur ein Bruchteil in andere Energieformen verwandeln läßt, wird als gebundene Energie bezeichnet. So gibt es galvanische Elemente, in denen die freie Energie vollkommen in elektrische Energie verwandelt wird, also kein Anteil der Energie als Wärme auftritt. Die von einem Elemente gelieferte elektrische Energie kann sogar größer sein, als dem in dem Element enthaltenen Vorrat an freier Energie entspricht. Damit ist das Gesetz von der Erhaltung der Energie indessen nicht etwa durchbrochen, sondern das Mehr an Energie wird in diesem Falle aus der Umgebung aufgenommen. Die Stromerzeugung ist dann nicht mit einer Erwärmung oder mit einem Konstantbleiben der Temperatur, sondern mit einer Abkühlung verbunden.
Dem gewaltigen Aufschwung, der sich auf dem Gebiete der Naturwissenschaften seit dem Beginn des 19. Jahrhunderts vollzog, entsprach neben der wachsenden Einsicht in den Zusammenhang der Erscheinungen ein sich stetig vergrößernder Einfluß auf den gesamten Kulturzustand unseres Zeitalters. Auf die Frage: »Wozu nützt das?« lautete Faradays Antwort: »Bemüht Euch, es nutzbringend zu machen!« Den aus einer rein wissenschaftlichen Tätigkeit entspringenden Entdeckungen des Forschers sind die Erfindungen meist auf dem Fuße gefolgt. So entwickelte sich auf dem Boden der Naturlehre die moderne Technik. Wohlstand und Behaglichkeit erzeugend, schuf sie wiederum die Mittel zur Förderung exakter Arbeiten und zur Verbreitung einer in immer tiefere Schichten der Bevölkerung eindringenden naturwissenschaftlichen Bildung. Auch diese Seite, die uns die Entwicklung der Naturwissenschaften zeigt, läßt sich nicht annähernd in ihrem ganzen Umfange, sondern nur in einigen besonders wichtigen Erscheinungen betrachten.
In den Anfang des 19. Jahrhunderts fallen die ersten Schritte zur Begründung des chemischen Großgewerbes. Sein Haupterzeugnis, die Schwefelsäure, welche den technischen Ausgangspunkt für viele Industriezweige bildet, stellte man schon seit der Mitte des 18. Jahrhunderts in größerem Maße her. Ein zweckmäßiges Verfahren konnte jedoch erst Platz greifen, nachdem Gay-Lussac und Glover die nach ihnen benannten, zur Wiedergewinnung der niederen Oxyde des Stickstoffs dienenden Türme eingeführt hatten. Durch die fabrikmäßige Darstellung der Schwefelsäure wurde auch die lange angestrebte Gewinnung der Soda aus Kochsalz ermöglicht. Im Jahre 1791 gründete der Franzose Leblanc die erste Sodafabrik und rief damit eine neue Industrie ins Leben, die besonders in England emporblühte und als wichtiges Nebenprodukt die Salz[Pg 394]säure lieferte582. Die Verbilligung der zuletzt genannten Säure hatte wiederum zur Folge, daß sich das Gebiet der so wichtigen Chlorpräparate erschloß, von denen das Kaliumchlorat den Anlaß zur Erfindung des ersten chemischen Feuerzeuges bot. Letzteres bestand darin, daß Holzstücke, die mit einem Gemisch von Kaliumchlorat und Schwefel versehen waren, durch Eintauchen in Schwefelsäure zur Entzündung gebracht wurden. Die Erforschung des Platins und seiner Verbindungen führte zu einer zweiten Zündvorrichtung, über welche Döbereiner mit folgenden Worten berichtet583: »Läßt man Wasserstoff durch ein Röhrchen auf staubförmiges Platin strömen, so daß der Strom des Gases sich vor der Berührung des Platins mit atmosphärischer Luft mischt, so wird der Staub fast augenblicklich glühend und bleibt dies, so lange der Wasserstoff ausströmt. Ist der Gasstrom stark, so wird der Wasserstoff entzündet. Dieser Versuch ist höchst überraschend und setzt jeden in Erstaunen. Ich habe diese Beobachtung bereits zur Darstellung eines neuen Feuerzeuges benutzt und werde sie noch zu weit wichtigeren Zwecken verwenden.« So interessant diese Arten der Feuererzeugung selbst noch heute sind, sie vermochten doch den um 1830 aufkommenden Zündhölzchen gegenüber nicht Stand zu halten. Für die letzteren bildeten der nach dem Verfahren von Scheele dargestellte gewöhnliche Phosphor, sowie die ungiftige, von Schrötter bereitete rote Abart dieses Elementes den technischen Ausgangspunkt584.
Neben der Schwefelsäure und der Salzsäure kam nach der Erschließung der Salpeterlager Südamerikas auch die Salpetersäure in immer größeren Mengen in den Handel. Das Studium dieser Säure in ihrem Verhalten zu den organischen Verbindungen führte um die Mitte des 19. Jahrhunderts zur Erfindung der heutigen Explosivstoffe. So stellte Schönbein, der sich besonders durch[Pg 395] die Erforschung des Ozons einen Namen gemacht hat585, im Jahre 1846 die Schießbaumwolle her. Bald darauf erhielt man durch die Einwirkung der Salpetersäure auf das von Scheele aus den Fetten abgeschiedene Glyzerin das furchtbarste Sprengmittel, das Nitroglyzerin586, dessen Gefährlichkeit später Nobel dadurch herabminderte, daß er es durch Zumischen von Kieselgur in Dynamit umwandelte.
Als im Beginn des 19. Jahrhunderts der Dampf zu einem allgemeinen Betriebsmittel wurde, begann gleichfalls von England aus die Leuchtgasindustrie sich zu verbreiten587. Diese Industrie erfüllte nicht nur ihre eigentliche Aufgabe, indem sie Wohnungen und Straßen mit einem Licht versah, das alle bisherigen Beleuchtungsarten übertraf, sondern sie rief auch durch die Fülle ihrer Nebenerzeugnisse neue Gewerbe, ja sogar einen neuen Zweig der chemischen Wissenschaft ins Leben. In dem wässerigen Produkt der Destillation der Steinkohle erhielt man nämlich eine Quelle für das Ammoniak und die Ammonsalze, während aus dem Studium der zahllosen, in dem Teer befindlichen Stoffe die Chemie der aromatischen Verbindungen erwuchs. Das wichtigste Glied in der Reihe dieser Verbindungen war durch einen sonderbaren Zufall in die Hände Faradays gelangt, der sich im Beginn seiner wissenschaftlichen Laufbahn vorzugsweise mit chemischen Untersuchungen beschäftigte. Während der zwanziger Jahre des 19. Jahrhunderts gab es noch keine ausgedehnten Leitungen, sondern das Gas wurde den Verbrauchern in verdichtetem Zustande in die Wohnungen geliefert. Dabei stellte sich heraus, daß die Leuchtkraft schnell abnahm. Als Faraday mit der Untersuchung dieser Erscheinung betraut wurde, fand er, daß sich aus dem Gase ein flüssiger Körper abscheidet, dessen Dampf die Leuchtkraft bedingt. Dieselbe, aus Kohlenstoff und Wasserstoff bestehende Substanz wurde[Pg 396] einige Jahre später aus der Benzoësäure dargestellt588 und Benzol genannt.
Mit der Tatsache, daß sich aus Steinkohlen ein brennbares Gas entwickeln läßt, waren schon Hales589 und Becher590 bekannt. Auf den Gedanken, diese Entdeckung praktisch zu verwerten, kam zuerst der Engländer William Murdoch. Er war es, der 1792 den ersten dahin zielenden Versuch in einer Fabrik in Staffordshire machte. Erst im Jahre 1808 hat Murdoch über die Erfahrungen, die er mit der Gasbeleuchtung gemacht hatte, in den Philosophical Transactions berichtet: »An account of the application of the gas from coal to economical purposes«.
Wie sich auf den geschilderten Grundlagen in steter Verbindung mit der Wissenschaft die chemische Industrie zu ihrer heutigen Bedeutung entwickelte, kann hier nur in einigen Strichen angedeutet werden.
Dasjenige Erzeugnis der chemischen Industrie, das zu weiterer Verarbeitung in allen ihren Zweigen Verwendung findet, ist die Schwefelsäure. Die Weltproduktion an diesem Material beläuft sich heute auf mehr als 5 Millionen Tonnen591. Bis vor wenigen Jahrzehnten erfolgte die Gewinnung der Schwefelsäure ausschließlich durch den von John Roebuck im Jahre 1746 erfundenen Bleikammerprozeß592. Zu diesem Verfahren gesellte sich der 1875 von Clemens Winkler erfundene Kontaktprozeß. Er beruht auf dem Verhalten des fein verteilten Platins, das wir bei der Erwähnung der Döbereinerschen Zündvorrichtung593 mit den Worten des Erfinders ausführlicher geschildert haben. Winkler leitete ein Gemenge von Schwefeldioxyd und Luft über erhitztes feinverteiltes Platin. Durch die katalytische oder Kontaktwirkung des letzteren vereinigt sich das Schwefeldioxyd mit dem Sauerstoff der Luft zu Schwefeltrioxyd (Schwefelsäureanhydrid), das sich mit [Pg 397]Wasser zu Schwefelsäure (H2SO4) verbindet.
Mit Hilfe des Kontaktverfahrens hat man auch die Gewinnung des Chlors aus der Salzsäure vereinfacht. Als Katalysatoren dienen Salze, die sich an dem chemischen Umsatz ebensowenig beteiligen wie das feinverteilte Platin. Theoretisch läßt sich daher mit Hilfe derartiger Kontaktkörper eine unbegrenzte Menge der mit ihnen in Berührung kommenden Substanzen umsetzen. Um nach der von Deacon seit 1870 eingeführten Methode das Chlor aus der Salzsäure zu gewinnen, leitet man ein Gemisch von Salzsäuregas und Luft über poröse mit Kupfersalzen getränkte Massen, die nahezu auf Rotglut erhitzt werden. Der Umsatz erfolgt nach der Gleichung 2HCl + O = H2O + 2Cl. Dem Deaconprozeß trat neuerdings die elektrolytische Gewinnung von Chlor als ebenbürtig an die Seite. Das Chlor, das nicht nur zum Bleichen, sondern auch zur Herstellung vieler Chlorverbindungen, in immer größerem Maße Verwendung findet, wird elektrolytisch aus den Lösungen von Chlornatrium oder Chlorkalium dargestellt. Bei diesem Vorgang entwickelt sich das Chlor an der positiven Elektrode, während man an der Kathode Natronlauge oder Kalilauge und eine dem Chlor äquivalente Menge Wasserstoff erhält. Daß hier Wasserstoff als billiges Nebenprodukt abfällt, hat wesentlich zu einer weitgehenden Verwendung dieses durch Leichtigkeit und hohen Heizwert ausgezeichneten Gases beigetragen.
Auch das älteste, zur fabrikmäßigen Darstellung der Soda ins Leben gerufene Verfahren Leblancs ist in der Neuzeit nahezu durch den Solvayprozeß verdrängt worden594. Leblanc setzte Kochsalz mit Schwefelsäure in Salzsäure und Natriumsulfat um. Das gewonnene Sulfat ergab beim Zusammenschmelzen mit Kalkstein und Kohle Soda595. Die Schwefelsäure ging bei diesem Prozeß völlig verloren. Die Bemühungen waren deshalb zunächst darauf gerichtet, den Schwefel aus den Rückständen der Leblancfabriken als solchen oder in Form von Verbindungen zurückzugewinnen. Soda ohne die Verwendung von Schwefelsäure herzustellen, gelang zuerst um 1840. Man leitete Kohlendioxyd und Ammoniak in eine Kochsalzlösung und verwandelte das so entstandene, primäre Natriumkarbonat durch Erhitzen in sekundäres Salz (Soda)596. Technisch brauchbar wurde das Ammoniaksodaverfahren erst, als es Solvay[Pg 398] (1863) gelang, das an der Bildung des Salmiaks beteiligte Ammoniak, sowie das beim Erhitzen des primären Salzes freiwerdende Kohlendioxyd stets wieder in den Prozeß einzuführen.
Ein Teil der im Großbetriebe erzeugten anorganischen Verbindungen wird von der in den letzten Jahrzehnten zu ungeahnter Blüte gelangten organisch-chemischen Industrie aufgenommen und weiter verarbeitet. Neben den anorganischen Verbindungen, vor allem den Mineralsäuren, besteht ihr Rohmaterial aus dem zuerst kaum der Beachtung gewürdigten Teer der Gasfabriken und Kokereien. Es war im Jahre 1856, als es Perkin, einem Schüler des damals in England wirkenden A. W. Hofmann597 gelang, aus dem Teer den ersten Farbstoff darzustellen. Heute liefert der Teer der chemischen Industrie vier ihrer wichtigsten technischen Ausgangspunkte. Es sind dies das Benzol, das Naphthalin, das Anthrazen und die Karbolsäure. Sie sind neben vielen anderen Gemengteilen in dem Teer enthalten und werden durch fraktionierte Destillation daraus gewonnen.
Die erste Reihe technisch wertvoller Produkte entwickelte sich aus dem Benzol (C6H6) als Muttersubstanz. Durch die Einwirkung von Salpetersäure wurde es in Nitrobenzol (C6H5NO2) übergeführt. Bei der Reduktion entstand aus dem Nitrobenzol das Anilin (C6H5NH2). Aus dem Anilin hatte Perkin den ersten Teerfarbstoff hergestellt. Einige Jahre später (1859) wurde aus Anilin ein besonderes Aufsehen erregender, roter Farbstoff gewonnen, den man als Fuchsin bezeichnete. Daran reihte sich das Anilinviolett (Hofmann, 1863), das Methylgrün, das Anilinblau, das schon gelbe Auramin usw.
Wohl auf keinem anderen Gebiete ist der technische Fortschritt so eng mit der wissenschaftlichen Forschung verknüpft gewesen wie auf dem Gebiete der organisch-technischen Chemie. Die neueren Theorien von der atomistischen Konstitution der chemischen Verbindungen leiteten nicht nur den Forscher bei seinen rein wissenschaftlichen Experimenten, sie waren für den nach neuen Fabrikationsweisen suchenden Chemiker nicht minder wichtig. Ein Leitstern ist vor allem die von Kekulé aufgestellte Theorie über die Konstitution des Benzols gewesen. Wir haben sie, sowie ihre Ausdehnung auf das Naphthalin und ähnliche organische Verbindungen an anderer Stelle schon besprochen598.[Pg 399] Den ersten Teerfarbstoffen hafteten noch viele Mängel an. Ihr größter war, daß sie sehr rasch im Lichte verblaßten. Auf der Suche nach lichtechten Farbstoffen wandte man sich als Ausgangspunkt dem Naphthalin zu. Aus diesem in dem Teer in größter Menge enthaltenen Rohmaterial gelang es Grieß im Jahre 1869 den ersten Azofarbstoff herzustellen und damit ein neues, wichtiges Gebiet der Teerfarbenfabrikation zu erschließen.
Nach den geschilderten Erfolgen steckte sich die organisch-technische Chemie die Aufgabe, die natürlichen, dem Tier- und Pflanzenreiche entstammenden Farbstoffe herzustellen. Die erste Synthese eines natürlichen Farbstoffs gelang im Jahre 1869 den Deutschen Liebermann und Graebe. Vom Anthrazen ausgehend, stellten sie das Alizarin, den wirksamen Bestandteil der Krapppflanze, synthetisch dar, und zwar viel reiner und billiger als ihn die Pflanze liefert. Die Folge war, daß der in vielen Gegenden blühende Krappbau binnen kurzem ganz einging und die bisher für ihn benutzten Flächen anderen Kulturzwecken dienstbar gemacht werden konnten.
An die Darstellung des Alizarins reihte sich diejenige des Indigos. Die Geschichte dieses »Königs der Farbstoffe« ist von einem ganz besonderen Interesse. Schon im Altertum war der Indigo wegen der schönen, lichtechten, blauen Farbe, die er de