Zipfsches Gesetz

Das Zipfsche Gesetz (nach George Kingsley Zipf, der dieses Gesetz in den 1930er Jahren aufstellte) ist ein Modell, mit dessen Hilfe man bei bestimmten Größen, die in eine Rangfolge gebracht werden, deren Wert aus ihrem Rang abschätzen kann. Häufige Verwendung findet das Gesetz in der Sprachwissenschaft (Linguistik), speziell in der Korpuslinguistik und Quantitativen Linguistik, wo es zum Beispiel versucht, die Häufigkeit von Wörtern in einem Text zur Rangfolge in Beziehung zu setzen. Das Zipfsche Gesetz markierte den Beginn dieses Ansatzes der Quantitativen Linguistik. Ihm liegt ein Potenzgesetz zugrunde, das von der Pareto-Verteilung bzw. Zipf-Verteilung mathematisch beschrieben wird.

Einfache Zipfverteilung

Die vereinfachte Aussage des Zipfschen Gesetzes lautet: Wenn die Elemente einer Menge – beispielsweise die Wörter eines Textes – nach ihrer Häufigkeit geordnet werden, ist die Wahrscheinlichkeit ihres Auftretens umgekehrt proportional zum Platz auf der Häufigkeitsliste (hier kurz „Rang“ genannt):

Der Normierungsfaktor bei Elementen ist durch die harmonische Reihe

gegeben und lässt sich nur für endliche Mengen angeben. Damit folgt:

Wahrscheinlichkeitsverteilung

Das Zipfsche Gesetz hat seinen Ursprung in der Linguistik. Es besagt, dass bestimmte Wörter viel häufiger auftreten als andere und die Verteilung einer Hyperbel ähnelt. Beispielsweise treten bei den meisten Sprachen Wörter umso seltener auf, je länger sie sind. Der Ordnungsparameter Rang n lässt sich als kumulative Größe beschreiben: Der Rang ist gleichbedeutend mit der Anzahl aller Elemente, die genauso groß oder größer sind als . Für Rang 1 gibt es genau ein Element, nämlich das größte. Für Rang 2 sind es zwei, nämlich das erste und das zweite Element, für 3 drei usw.

Zipf nimmt einen einfachen reziproken Zusammenhang zum Rang an: . In der ursprünglichen Form ist das Zipfsche Gesetz frei von Parametern, es ist .

Die Zipfsche Verteilung entspricht der Pareto-Verteilung unter Vertauschung von Ordinate und Abszisse:

.

Beide sind kumulative Verteilungsfunktionen, die einem Potenzgesetz gehorchen. Der Exponent der Verteilungsdichtefunktion lautet entsprechend:

und für den einfachen Fall :

.

Beispiele

Zipf-Verteilung der Worthäufigkeiten auf Basis von Effi Briest
Zipf-Buchstabenhäufigkeit eines deutschen Textes

Die Verteilung der Worthäufigkeiten in einem Text (linke Grafik) entspricht in etwa qualitativ einer einfachen Zipfschen Verteilung.

Das Zipfsche Gesetz gibt den Exponenten der kumulativen Verteilungsfunktion vor: .

Der Fitwert für die Worthäufigkeiten beträgt jedoch , gleichbedeutend mit dem Exponenten einer Paretoverteilung und dem Exponenten einer Potenz-Verteilungsdichtefunktion von .

Auch die Verteilung der Buchstabenhäufigkeiten ähnelt einer Zipfschen Verteilung. Eine Statistik basierend auf 20–30 Buchstaben ist aber nicht ausreichend, um den Verlauf mit einer Potenzfunktion anzupassen.

Zipf-Verteilung und Messung der Größenverteilung von Städten

Ein weiteres Beispiel aus dem Artikel Pareto-Verteilung behandelt die Größenverteilung von Städten. Auch hier kann man bei einzelnen Ländern (z. B. Deutschland) einen Zusammenhang sehen, der einem Potenzgesetz zu gehorchen scheint, allerdings mit auffallenden Abweichungen. Die Grafik rechts stellt die Zipf-Näherung den Messwerten gegenüber. Der lineare Verlauf in der doppeltlogarithmischen Verteilung stützt die Annahme eines Potenzgesetzes. Anders als die Vermutung von Zipf hat der Exponent nicht den Wert 1, sondern den Wert 0,77, entsprechend einem Exponenten einer Potenzdichteverteilung von . Diese Theorie, nach der sich die Einwohnerzahlen und Größen unabhängig voneinander entwickelnden Städten dennoch einem übergeordneten Gesetz folgend entwickeln, findet auch bei der Ermittlung zu erwartender Ortsgrößen Anwendung.[1]

Die Bedeutung der Zipf-Verteilung liegt in der schnellen qualitativen Beschreibung von Verteilungen aus den unterschiedlichsten Bereichen, während die Pareto-Verteilung den Exponenten der Verteilung verfeinert.

Beispielsweise ist die Datenbasis für einen Fit bei der Angabe der Einwohnerzahl von nur sieben Städten zu klein. Das Zipfsche Gesetz liefert eine Näherung:

Rang nStadtEinwohner1/Rangp(n)p(n)·MenschenAbweichung in %
1Berlin352289610,393531136,31−0,23
2Hamburg16262200,50,191765568,15−8,57
3München12066830,330,131177045,442,46
4Köln9462800,250,1882784,086,71
5Frankfurt6351500,20,08706227,26−11,19
6Dortmund6244450,170,06588522,725,74
7Essen5940580,140,06504448,0419,22

Unter den Schlagworten Potenzgesetz, Skalengesetz oder Selbstorganisation wird über Gründe für das Auftreten von Potenzverteilungen diskutiert.

Siehe auch

Literatur

  • Helmut Birkhan: Das „Zipfsche Gesetz“, das schwache Präteritum und die germanische Lautverschiebung (= Österreichische Akademie der Wissenschaften. Philosophisch-Historische Klasse. Sitzungsberichte. Band 348). Verlag der Österreichischen Akademie der Wissenschaften, Wien 1979, ISBN 3-7001-0285-2.
  • George Kingsley Zipf: The Psycho-Biology of Language. An Introduction to Dynamic Philology. Mifflin, Boston MA 1935 (The M.I.T. Press, Cambridge MA 1968).
  • Xavier Gabaix: Zipf’s law for cities. An explanation. In: The Quarterly Journal of Economics. Band 114, Nr. 3, 1999, S. 739–767, doi:10.1162/003355399556133.
  • Matteo Marsili, Yi-Cheng Zhang: Interacting Individuals Leading to Zipf’s Law. In: Physical Review Letters. Band 80, Nr. 12, 1998, S. 2741–2744, doi:10.1103/PhysRevLett.80.2741.
  • Henri Guiter, Michail V. Arapov (Hrsg.): Studies on Zipf’s Law (= Quantitative Linguistics. Band 16). Studienverlag Brockmeyer, Bochum 1982, ISBN 3-88339-244-8.
  • David Crystal: Die Cambridge Enzyklopädie der Sprache. Campus-Verlag, Frankfurt am Main u. a. 1993, ISBN 3-593-34824-1.
  • George Kingsley Zipf: Human Behavior and the Principle of Least Effort. An Introduction to Human Ecology. Addison-Wesley, Cambridge MA 1949.

Weblinks

Wiktionary: Zipfsches Gesetz – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

  1. Christian Schluter, Mark Trede, 12. September 2013: Gibrat, Zipf, Fisher and Tippett: City Size and Growth Distributions Reconsidered (PDF; 494 kB; 29 Seiten), oder im Internetarchiv (Memento vom 10. Juni 2016 im Internet Archive), abgerufen am 29. Juli 2018.

Auf dieser Seite verwendete Medien

Zipf-Verteilungn.png
Autor/Urheber: Berklas, Lizenz: CC BY-SA 2.5
Distribution of words and compared to simple Zipf distribution ~1/n. Number of words: 70. Analysed text: http://www.gutenberg.org/dirs/etext04/8effi10.txt. See: de:Zipfsches Gesetz
Powercitiesziplnrp.png
Autor/Urheber: Die Autorenschaft wurde nicht in einer maschinell lesbaren Form angegeben. Es wird Anton~commonswiki als Autor angenommen (basierend auf den Rechteinhaber-Angaben)., Lizenz: CC BY-SA 2.5

Example for Power law: distribution of population of biggest German cities. Zipf-law, compared with measured Distribution (logarithmic presentation)

population : number of cities having at least that population
Data source: see Image:Powercitiesrp.png
Zipf-Verteilung-Buchstaben.png
(c) Anton, CC BY-SA 3.0
Vergleich der Verteilung von Buchstabenhäufigkeiten eines Textes mit einer Verteilung nach Zipf

Häufigkeit der Buchstaben und einiger Satzzeichen in einem deutschen Text

Rang Wort  rel. Häuf.  zipfsche Häufigkeit
  1     E  0.13678     0.23955
  2 Leerz. 0.13048     0.11977
  3     N  0.09034     0.07985
  4     I  0.06908     0.05989
  5     R  0.06501     0.04791
  6     S  0.05426     0.03992
  7     T  0.05386     0.03422
  8     D  0.04119     0.02994
  9     A  0.04011     0.02662
 10     U  0.03947     0.02395
 11     H  0.03565     0.02178
 12     L  0.03449     0.01996
 13     G  0.02820     0.01843
 14     C  0.02565     0.01711
 15     O  0.02016     0.01597
 16     M  0.01938     0.01497
 17     B  0.01743     0.01409
 18     F  0.01663     0.01331
 19     W  0.01409     0.01261
 20     K  0.01230     0.01198
 21     Z  0.01032     0.01141
 22     .  0.00818     0.01089
 23     ,  0.00790     0.01042
 24     V  0.00755     0.00998
 25     Ü  0.00613     0.00958
 26     P  0.00560     0.00921
 27     Ä  0.00537     0.00887
 28     Ö  0.00289     0.00856
 29     J  0.00064     0.00826
 30     Q  0.00033     0.00798
 31     Y  0.00027     0.00773
32 X 0.00014 0.00749