Top-Fragen
Zeitleiste
Chat
Kontext
Berechnungsverfahren zur Riemannschen Zeta-Funktion
Aus Wikipedia, der freien Enzyklopädie
Remove ads
Bei Berechnungsverfahren zur Riemannschen Zeta-Funktion handelt es sich um Algorithmen, die Zahlenwerte für komplexe Werte möglichst genau und zeitschnell ermitteln. Über mehrere Jahrhunderte wurden dabei immer effizientere Verfahren entwickelt. Durch den Einsatz von Computern sind insbesondere seit Beginn des 21. Jahrhunderts sehr umfangreiche Berechnungen möglich.
Remove ads
Die Riemannsche Zetafunktion
Zusammenfassung
Kontext

Die Riemannsche Zetafunktion ist eine komplexwertige Funktion, die für eine komplexe Zahl mit einem Realteil durch die unendliche Summe
definiert ist.
Eine der wichtigsten Eigenschaften der Riemannschen Zetafunktion ist ihr Zusammenhang mit den Primzahlen. Sie stellt eine Beziehung zwischen komplexer Analysis und Zahlentheorie her (siehe analytische Zahlentheorie) und bildet den Ausgangspunkt der Riemannschen Vermutung. Der folgende Ausdruck, der auf Leonhard Euler (1748) zurückgeht, stellt den Zusammenhang formelhaft dar als
wobei ein unendliches Produkt über alle Primzahlen darstellt. Der Ausdruck folgt unmittelbar aus dem Satz über die Eindeutigkeit der Primzahlzerlegung und der Summationsformel für die geometrische Reihe.
Die Funktion lässt sich über den ursprünglichen Konvergenzbereich der Eulerschen Summen- bzw. Produktformel hinaus auf die gesamte komplexe Ebene – mit Ausnahme von – eindeutig analytisch fortsetzen. Man erhält eine meromorphe Funktion: Im Punkt besitzt sie einen einfachen Pol.
wobei die Gammafunktion und die Bernoulli-Zahlen sind.[1]
Von großer Wichtigkeit für die Verteilung der Primzahlen ist die genaue Lage der Nullstellen der Zeta-Funktion. Durch numerische Verfahren kann damit in etwa die Riemannsche Vermutung gestützt (jedoch nicht bewiesen) werden.
Remove ads
Geschichte
Zusammenfassung
Kontext
Die in der zweiten Hälfte des 20. Jahrhunderts aufkommenden leistungsstarken Computer boten neue Möglichkeiten. Bereits im Jahr 1936 hatte der in Oxford wirkende Mathematiker Edward Charles Titchmarsh mit einer Maschine, die ursprünglich für astronomische Berechnungen konstruiert worden war, die ersten 1041 nicht-trivialen Nullstellen der Zeta-Funktion berechnet.[2] Im Jahr 1953 wurden diese Berechnungen von Alan Turing fortgesetzt. Seine Methode wird bis heute benutzt. Erstmals kam dabei ein Computer zum Einsatz.[3][4] In der Forschung rund um die Riemannsche Zeta-Funktion wurden Computer vor allem nun dazu benutzt, die Korrektheit der Riemannsche Vermutung für möglichst viele Nullstellen zu überprüfen. Obwohl es sich bei allen Rechnungen um numerische Verfahren handelt, zeigen diese exakt und nicht nur annähernd, dass sich die untersuchten Nullstellen auf der kritischen Geraden befinden.[5]

Die Richtigkeit der Riemannschen Vermutung wurde von vielen Mathematikern angezweifelt, unter anderem von Don Zagier. Bei einer Konferenz Anfang der 70er in Bonn spitzte sich eine Diskussion zwischen ihm und Enrico Bombieri schließlich zu und endete in einer Wette: Zagier sagte voraus, es müsse eine Nullstelle der Zeta-Funktion geben, die nicht Riemanns Vorhersage gehorche, Bombieri hielt dagegen. Da beide jedoch nicht davon ausgingen, noch zu Lebzeiten Zeuge eines rigorosen Beweises zu sein, einigten sie sich darauf, dass Zagier verlöre, wenn die ersten 300 Millionen Nullstellen die Vermutung erfüllten. Zu diesem Zeitpunkt waren bereits einige Tausend Nullstellen lokalisiert, doch es gab theoretische Gründe, dass diese auch auf der kritischen Geraden liegen müssten. Wurde die Zahl größer, so wurden diese Gründe schwächer und ab einer gewissen Größenordnung gab es sogar Hinweise, dass die Vermutung falsch sein könnte. Bei den ersten 300 Millionen sei es deswegen laut Zagier „ein Wunder“, falls diese immer noch ausnahmslos auf der kritischen Geraden lägen. Mit der Zeit stieg die Rechenleistung von Computern rasant. Die Größenordnung der Nullstellenzahl aus der Wette geriet damit schon bald in Reichweite. Im Jahr 1979 hatte eine Gruppe aus Amsterdam um Herman te Riele und Richard P. Brent schließlich 200 Millionen Nullstellen überprüft – alle lagen auf der kritischen Geraden. Zagier kommentierte dazu:
„Ich atmete erleichtert auf, denn das war ein Riesenprojekt. Gott sei Dank hatten sie bei 200 Millionen aufgehört. Offensichtlich hätten sie auch bis 300 Millionen gehen können, aber zum Glück hatten sie es nicht getan. Jetzt hatte ich wieder einige Jahre Luft.“
Jedoch wusste Hendrik Lenstra, ein guter Freund Zagiers, von dessen Wette und machte te Riele darauf aufmerksam, dass Zagier verlöre, wenn die ersten 300 Millionen Nullstellen auf der kritischen Geraden lägen. Also rechnete die Gruppe bis 300 Millionen und Zagier musste seine Wette einlösen. Mit zwei Flaschen Wein aus Bordeaux ging er zu Bombieri und betonte:
„200 Millionen hatten nichts mit meiner Wette zu tun. Das haben die für sich gemacht. Doch die letzten 100 Millionen, diese Rechnung haben sie damals nur wegen meiner Wette gemacht. Für diese zusätzlichen 100 Millionen haben sie ungefähr 1000 Stunden CPU-Zeit verbraucht. Die Kosten für eine Stunde beliefen sich damals auf rund 700 Dollar. Da sie diese Rechnung nur gemacht haben, damit ich meine Wette verliere und die beiden Flaschen Wein bezahlen muss, kann man gut und gerne sagen, dass jede dieser Flaschen rund 350.000 Dollar wert ist. Und das ist wahrlich mehr als die teuerste Flasche Wein, die jemals auf einer Versteigerung unter den Hammer gekommen ist.“
Bis 2005 wurden im Rahmen des sog. ZetaGrid Project durch verteilte Rechner die ersten 10 Billionen Nullstellen überprüft.[8] Alle lagen auf der kritischen Geraden.
Remove ads
Verfahren
Zusammenfassung
Kontext
Euler-Maclaurin-Summenformel
Als gute und historisch betrachtet früh verwendete Methode erweist sich die „abgebrochene“ Summenformel, die mit Hilfe der Euler-Maclaurin-Summenformel gewonnen wird. Generell wird zunächst eine beliebige natürliche Zahl festgelegt, für die außerdem gelten sollte. Es gilt dann:[9]
Dabei gilt für das Restglied[10][11]
Bei der (freien) Wahl von ist außerdem zu beachten, dass das Restglied nur auf der Halbebene konvergiert. Daher muss stets gelten. Für größer werdende Werte von verkleinert sich der Fehler demnach rapide.[12]
Durch Anwendung der Funktionalgleichung (eine schnelle Berechnung der Gamma-Funktion und der Exponentialfunktion ist leicht zu implementieren), kann zudem ohne Einschränkung angenommen werden. Hier ist die Summenformel deutlich schneller. Ein Nachteil dieser Methode ist aber, dass sie für wachsende Imaginärteile an Effizienz einbüßt.
Die Nützlichkeit dieser Approximation ist bereits länger bekannt. Beispielsweise ermittelte Leonhard Euler ca. 1734 den Wert von auf etwa 20 Stellen genau, bevor er das Basler Problem, das sich mit dem analytisch „exakten“ Wert von befasste, löste. Diese numerische Auswertung war für ihn die praktische Bestätigung für die Richtigkeit seines exakt ermittelten Wertes.[13]
Weiters fand der dänische Mathematiker Jørgen Pedersen Gram im Jahr 1903 numerische Werte der ersten 15 nicht-trivialen Nullstellen, wobei er die ersten 10 Nullstellen auf sechs und die weiteren 5 auf jeweils eine Stelle nach dem Komma ermittelte.[14]
Beispiele
Als ein Beispiel bietet sich die numerische Annäherung des Zahlenwertes von
an. Für eine sehr gute Approximation reichen die Werte und vollkommen aus. Einsetzen ergibt:
Die folgende Tabelle zeigt die numerische Auswertung dieser Rechnung.
Diese mit wenig Aufwand gewonnene Approximation stimmt mit dem tatsächlichen Wert
bereits in sechs Dezimalstellen (gerundet) nach dem Komma überein.[15] Zur Unterstreichung der Effizienz sei bemerkt: Hätte Euler stattdessen einfach nur auch für den Wert des Terms aufsummiert, so wären für die gleiche Approximationsgüte zirka eine Million Summanden nötig gewesen. Geht man davon aus, dass Euler per Hand pro Term durchschnittlich 20 Sekunden Rechenzeit benötigte, hätte dies zirka acht Monate ununterbrochenes Rechnen bedeutet.
Analog kann der Dezimalwert von angenähert werden. Hier reicht die Wahl von und .
Auch dieser Wert stimmt auf sechs Dezimalstellen genau.[15]
Alternierende Summen
Ein Verfahren mittels abgebrochener alternierender Reihen stammt von Borwein.[16] Basierend auf konvergenzbeschleunigenden Transformationen angewandt auf die Reihe
erhält man die leicht zu implementierende Formel
wobei ebenfalls von der Wahl von abhängt. Diese ist für alle Werte verwendbar. Der Fehler kann mit für abgeschätzt werden durch
Für ergibt sich hingegen[17][18]
Jedoch gilt auch hier, dass das Verfahren für größer werdende Imaginärteile auf der positiven reellen Seite an Effizienz verliert.
Berechnung auf der kritischen Geraden
Riemann-Siegel-Formel
Viele Methoden verlieren an Präzision, wenn der Imaginärteil des Arguments sehr groß gewählt wird, was bei der Nullstellensuche entlang der kritischen Geraden problematisch ist. Daher greift man hier auf andere Methoden zurück, eine davon ist die Riemann-Siegel-Formel.
Für
folgt mit der Funktionalgleichung der Zeta-Funktion schnell , also , d. h., bildet entlang der kritischen Geraden nur auf Werte des Einheitskreises ab. Es kann also eine stetige reellwertige Funktion implizit durch die Gleichung
definieren werden, wobei . Diese wird auch als Riemann-Siegelsche Theta-Funktion bezeichnet. Damit lässt sich schließlich die Riemann-Siegelsche -Funktion definieren:
Man zeigt leicht , d. h. ist sogar eine reellwertige Funktion , wird aber genau dann Null an der Stelle , falls eine nicht-triviale Nullstelle von ist. Es sei hinreichend groß gewählt. Für Werte folgt nun mit der Approximate functional equation
Der Fehlerterm kann durch eine asymptotische Entwicklung[19]
beliebig verbessert werden. Exakte obere Grenzen für ergeben sich für über
Die explizit bestimmbaren Funktionen werden mit wachsendem recht kompliziert, die ersten sind gegeben durch[20]
Insgesamt ergibt sich für eine ziemlich präzise Berechnung ein Aufwand von Rechenoperationen in Form von Termberechnungen mit anschließender Addition. Um Nullstellen zu finden, reicht es schon aus, Bereiche mit Vorzeichenwechsel zu identifizieren (und für deren präzise Bestimmung dann eine Intervallschachtelung durchzuführen).
Ist im Bereich , so reicht die Wahl für eine Präzision mit einem Fehler , wobei lediglich Summanden benötigt werden. Für eine ähnliche Genauigkeit benötigen weniger spezielle Verfahren (wie die alternierende Summe) ca. Summanden.[21]
Verfahren von Odlyzko und Schönhage
Im Jahr 1988 entwickelten A. M. Odlyzko und A. Schönhage ein sehr schnelles Verfahren, um Werte der Riemannschen Zeta-Funktion auf der kritischen Geraden zu bestimmen. Dieses basiert auf den Ideen der Riemann-Siegel-Formel, benötigt jedoch nur noch anstatt Rechenoperationen, wobei beliebig klein gewählt werden kann. Die Verfeinerung der Rechentechniken basiert auf der schnellen Fouriertransformation.[22]
Remove ads
Fortschritte bei der Berechnung von Nullstellen
Remove ads
Einzelnachweise
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads