, 58 min read

Das Fehlerverhalten zusammengesetzer linearer Mehrschrittformeln

Original post is here eklausmeier.goip.de/blog/2024/07-01-das-fehlerverhalten-zusammengesetzter-linearer-mehrschrittformeln.


Bei zusammengesetzten Verfahren, also Verfahren mit mehr als einer Stufe, besitzt ersteinmal jede Stufe für sich eine eigene Fehlerkonstante im herkömmlichen Sinne. Dennoch zeigt z.B. die zyklische Hintereinanderausführung des impliziten und expliziten Euler-Verfahrens, daß das Einzelverhalten der Stufen nicht unbedingt auch das Gesamtverhalten des Zykluses wiedergibt. Das implizite Euler-Verfahren für sich alleine betrachtet hat die Konvergenzordnung 1, ebenso hat das explizite Euler-Verfahren für sich alleine betrachtet die Konvergenzordnung 1. Das zusammengesetzte Verfahren hat allerdings schon die Konvergenzordnung 2. Es ist nun naheliegend zu fragen, ob noch höhere Konvergenzordnungssprünge möglich sind. Desweiteren wird man für diesen Sprung der Konvergenzordnung eine Erklärung wünschen.

Allerdings wird man nicht in so unstetigen Übergängen denken wollen. Bei den klassischen Verfahren, wie linearen Mehrschrittformeln oder Runge-Kutta-Verfahren, ist bekannt, daß ein sehr genaues Verfahren der Ordnung p, sich ähnlich verhält wie ein sehr ungenaues Verfahren der eins höheren Ordnung p+1. Man erwartet also vielmehr einen gleitenden Übergang zwischen Verfahren. Paradebeispiel ist hierfür übrigens das ϑ-Verfahren

yn+1yn=h(ϑfn+1+(1ϑ)fn),n=0,1,

Für ϑ=1/2 erhält man die implizite Trapezregel mit der Ordnung 2 und in allen anderen Fällen nur Verfahren der Ordnung 1, insbesondere für ϑ=0 ein explizites Verfahren. Es zeigt sich nun, daß der primäre dominante lokale Fehler eine erste Auskunft gibt über das Fehlerverhalten. Verschwindet der primäre dominante lokale Fehler, liegt also der Fall der annullierten Dominanz vor, so gibt der sekundäre dominante lokale Fehler ein weiteres Bild über das Fehlerverhalten.

Zuerst erscheint zur Klarstellung der Bezeichnungen, die Festlegung des Konsistenzbegriffes. Anschliessend werden eine Reihe von zueinander äquivalenten Beschreibungsmöglichkeiten für hohe Konsistenzordnung gegeben. Diese Beschreibungen sind direkt anwendbar zur Berechnung neuer Verfahren. Eine Reihe von Fehlerkonstanten werden miteinander verglichen und Gemeinsamkeiten deutlich gemacht.

1. Konsistenz, Konsistenzordnung und Fehlerkonstanten

Es sei

α0yn+α1yn+1++αkyn+k=h(β0fn+β1fn+1++βkfn+k),αk0,

ein lineares k-Schrittverfahren. An die Koeffizienten des linearen k-Schrittverfahrens sind gewisse Einschränkungen zu stellen, damit die Lösungen, die durch das k-Schrittverfahren berechnet werden, auch etwas mit der Lösung der Differentialgleichung zu tun haben. Man unterscheidet zweierlei Bedingungsarten:

Es zeigt sich nachher, daß die Stabilitätsbedingung die einschränkendere Bedingung ist. Die Konsistenzbedingungen führen auf lineare Gleichungssyteme. Die Stabilitätsbedingungen führen auf nicht-lineare und Gleichungs- und Ungleichungssysteme.

Die Konsistenzbedingungen sind:

Cp,k(αβ)=(A|B)(αβ)=0.

Die Konsistenzmatrix Cp,k für lineare k-Schrittverfahren der Konsistenzordnung p lautet im Verein mit dem Koeffizientenvektor des Verfahrens und der entsprechenden Bedingung

(11111000000123k111110122232k202122232k0132333k303123223323k201p2p3pkp0p1p1p2p1p3p1pkp1)(α0α1αk1αkβ0β1βk1βk)=(00000).

Beispielsweise lautet die Konsistenzmatrix Cp,k bei spezieller Wahl von p und k, wie folgt:

1. Beispiel: Konsistenzmatrix Cp+1,k für p=3 und k=3:

C4,3=(111100000123111101490246018270312270116810432108)

und für p=5, k=5 lautet Cp+1,k mithin

C6,5=(111111000000012345111111014916250246810018276412503122748750116812566250432108256500013224310243125058040577331250164729409615625061921458614418750)

2. Ein lineares k-Schrittverfahren mit mindestens der Konsistenzordnung p muß also im Kern der Matrix Cp,kZ(p+1)×(2k+2) liegen, also

(αβ)kerCp,k.

Erweitert man die Matrix Cp,k in offensichtlicher Weise unten um eine weitere Zeile und damit zur Matrix Cp+1,kZ(p+2)×(2k+2), und ist dann das Matrix-Vektor Produkt nicht mehr der Nullvektor, so hat das Verfahren die genaue Konsistenzordnung p, und die von Null verschiedene Komponente des Ergebnises ist ein unskalierter Fehlerfaktor cp+1. Wenn auf die Unskalierung besonders hingewiesen werden soll auch λcp+1, mit λ{αk,βk,σ(1),}. Man hat also

Cp+1,k(αβ)=(00cp+1).

Den Wert cp+1 teilt man jetzt noch durch (p+1)!, aus später ersichtlichen Gründen, die mit einer Taylorentwicklung zu tun haben.

Übliche Skalierungsgrößen sind nun αk oder i=0kβi. Skaliert man mit der letztgenannten Summe, so heiße der resultierende Faktor auch Henrici's Fehlerkonstante. Sie tritt in natürlichster Art und Weise auf bei der Behandlung von differential-algebraischen Gleichungen, die man mit Verfahren löst, wie man sie bei gewöhnlichen Differentialgleichungen einsetzt.

Bibliographisch: Henrici, Peter Karl Eugen (1923–1987).

3. Die Minus-Zeichen in der Konsistenzmatrix Cp,kZ(p+1)×(k+1)(m+1) (bisher m=1) tauchen nicht mehr auf, wenn man statt

αiyn+i=hβiy˙n+i

einfach

αiyn+i+hβiy˙n+i+h2γiy¨n+i=0

schreibt (oben für m=2).

4. Bei Diskretisierungen zur Lösung von Gleichungen der From F(t,y,y˙)=0, hier insbesondere linearen Mehrschrittverfahren, wird man unmittelbar dazu geführt, die Gleichung

1hi=0kαiyi=i=0kβiy˙i

wie folgt zu interpretieren. Die linke Summe stellt eine Näherung für die Ableitung y˙ an einer hier nicht weiter interessierenden Zwischenstelle dar. Die rechte Summe ist genau dann ein gewichtetes Mittel der Werte y˙i, wenn sich die βi-Summanden genau zu eins aufsummieren. Das letzte kann man aber stets erreichen durch geeignete Vormultiplikation der obigen Gleichung mit dem Kehrwert der Summe i=0kβi. Aufgrund der sofort offensichtlichen Linearität der Konsistenzbedingungen, erscheint die entsprechende Summe dann auch in dem Fehlerfaktor cp+1.

Genauso ist aber auch

i=0k1βiy˙n+i+i=0kαiyn+i=y˙n+k

interpretierbar als Näherung eben an der Stelle tn+k.

5. Es gibt mehrere weitere Möglichkeiten die Fehlerkonstante von Henrici abzuleiten.

Insbesondere durch Überlegungen bzgl. des Einflußes der lokalen Fehler auf den globalen Fehler. Dies sind die Überlegungen, wie man sie in den Aufsätzen von Skeel (1976) und Albrecht (1985) findet. In dem letztgenannten Aufsatz werden diese Überlegungen in allgemeinster Form unter Berücksichtigung von mehrfachen Eigenwerten μ=1 durchgeführt. Ähnliche Erwägungen werden in der Dissertation von Tischer (1983) durchgeführt. U.a. findet man eine Darstellung und Ableitung der Fehlerkonstanten von Henrici in dem Buche von Hairer/Wanner/Nørsett (1987) und natürlich in dem Buche von Henrici (1962) selber. Die Fehlerkonstante von Henrici ist nicht originär von Henrici erfunden worden. Sie taucht ebenfalls bei zahlreichen anderen Autoren auf, wie z.B. bei Hull/Newberry (1961).

Bibliographisch:

  1. Henrici, Peter Karl Eugen (1923–1987)
  2. Hairer, Ernst (*1949)
  3. Wanner, Gerhard (*1942)
  4. Nørsett, Syvert Paul
  5. Thomas E. Hull
  6. A.C.R. Newberry
  7. Robert David Skeel
  8. Peter Albrecht
  9. Peter E. Tischer: "The Cyclic Use of Linear Multistep Formulas for the Solution of Stiff Differential Equations", Ph.D. Thesis, Department of Computer Science, Monash University, Clayton, Victoria, Australia, August 1983, x+180 pages.
  10. Albrecht, Peter: “Die numerische Behandlung gewöhnlicher Differentialgleichungen — Eine Einführung unter besonderer Berücksichtigung zyklischer Verfahren”, Carl Hanser Verlag, München Wien, 1979, xi+193 S.
  11. Albrecht, Peter: “Numerische Behandlung gewöhnlicher Differentialgleichungen”, Jül-1274, Februar 1976, Berichte der Kernforschungsanlage Jülich, Institut für Festkörperforschung, Kopie

Bei linearen Verfahren, die der starken Wurzelbedingung genügen, ergibt sich die Fehlerkonstante CA zu

CA=vγvA1w,{v(A0+A1)=0,v0(A0+A1)w=0.w0

Hierbei ist also v der Linkseigenvektor zum Matrixpolynom A1μ+A0 zum Eigenwert μ=1 und w ist der Rechtseigenvektor zum gleichen Matrixpolynom und gleichem Eigenwert. Um eine eindeutige Konstante zu erhalten, wird der letzte Vektor w noch normiert z.B. durch die Norm

w=1sw12++ws2.

Das starke Wurzelkriterium garantiert, daß vA1w nicht verschwindet. Genauer: die Tatsache, daß μ=1 einziger Eigenwert inklusive Multiplizität ist, garantiert das Nichtverschwinden.

2. Die Anwendung linearer Mehrschrittverfahren bei DAE

1. Um mit Einbein-Verfahren differential-algebraische Gleichungen der Form

F(t,x˙,x,y)=0,G(t,x,y)=0,

zu lösen, rechnet man

F(τn,1hnρnxn,σnxn,σnyn)=0,G(tn,xn,yn)=0.

Die differential-algebraische Gleichung enthalte vermittels G eindeutig als rein algebraische Restriktionen identifizierbare Gleichungen. Das Einbein-Verfahren für gewöhnliche Differentialgleichungen der Form x˙=f(t,x), ist gegeben durch

1hnν=0kαν,nxnk+νf(τn,ν=0kβν,nxnk+ν)=0,

und

τn=ν=0kβν,ntnk+νwobeiν=0kβν,n=1,n

Die Operatoren ρn und σn sind wie üblich

ρnzn=ν=0kαν,nznk+ν,σnzn=ν=0kβν,nznk+ν.

Ebenfalls mögliche Diskretisierungen des Gleichungspaares F(t,x˙,x,y)=G(t,x,y)=0 sind

F(τn,1hρnxn,σnxn,σnyn)=0,G(τn,σnxn,σnyn)=0,

was sich besonders dann anbietet, falls bei einer differential-algebraischen Gleichung, die Trennung zwischen “reiner” Differentialgleichung und rein algebraischen Restriktionen, nicht klar zutage tritt. Dies ist beispielsweise bei dem Problem P9 der Fall.

2. Für lineare Mehrschrittverfahren der Form

1hn(ν=0kαν,nxnk+ν)ν=0kβν,nx˙nk+ν=0,n=k,k+1,,

stets mit der Normierung ν=0kβν,n=1, gewinnt man eine Diskretisierung für die Gleichung F(t,x˙,x,y)=G(t,x,y)=0, wie folgt. Man fügt temporär eine zusätzliche Variable w:=x˙ dem System F=G=0 hinzu und erhält dann nach Diskretisierung, unter Beachtung von wn:=x˙n, das vergrößerte System

F(tn,wn,xn,yn)=0,G(tn,xn,yn)=0,1hnρnxnσnwn=0,

mit den Unbekannten xn, yn und wn. Die letzte Gleichung ist allerdings sehr leicht nach wn aufzulösen. Man erhält

wn=1βk,n(1hnρnxnσnwn),

mit

σn=ν=0k1βν,nwnk+ν.

Der Operator σn wirkt also lediglich auf schon zurückliegende berechnete Werte. Einsetzen des so aufgelösten wn, führt auf

F(tn,1βk,n(1hnρnxnσnwn),xn,yn)=0,G(tn,xn,yn)=0,

zur Bestimmung von (xn,yn).

3. Prinzipiell sind auch explizite Operatoren (ρn,σn) denkbar. Entsprechend erhält man dann

F(tn1,1βk1,n(1hnρnxnσnwn),xn1,yn1)=0,G(tn1,xn1,yn1)=0,

wobei σn noch einen Term weniger enthält. Der Vorteil der leichteren Auflösbarkeit oder gar der Vermeidung von Nichtlinearitäten solcher Diskretisierungen, ist jedoch im Falle von differential-algebraischen Gleichungen nicht mehr vorhanden. Es muß in jedem Falle in jedem Zeitschritt ein i.d.R. nicht-lineares Gleichungssystem gelöst werden.

Zu dieser Diskretisierung schreibt Liniger (1979):

although to the author's knowledge, thus far such methods have not been used practically …

Der Einsatz von linearen Mehrschrittverfahren und Einbein-Verfahren, und die Ableitung von Diskretisierungen bei differential-algebraischen Gleichungen, wird bei Liniger (1979) untersucht. Insbesondere Fragen der Konsistenzordnung der Diskretisierung findet man bei Liniger (1979). Stabilitätsuntersuchungen sind für differential-algebraische Gleichungen schwieriger und werden daher auch dort nicht behandelt. Einen Konvergenzbeweis für die BDF findet man bei Petzold/Lötstedt (1986a). Eine gute übergreifende Darstellung bietet Griepentrog/März (1986).

Bibliographisch: Werner Liniger (1927–2017), Linda Ruth Petzold (*1954), Eberhard Griepentrog (1933–2023), Roswitha März (*1940), Per Lötstedt.

3. Mehrere Charakterisierungen der Konsistenzordnung

An dieser Stelle sollen eine Reihe von gleichwertigen Charakterisierungen angegeben werden, die garantieren, daß ein lineares Mehrschrittverfahren der Form

i=0kαiyn+i=hi=0kβifn+i,

mindestens die Konsistenzordnung p hat. Unter Umständen hat das Verfahren sogar eine noch höhere Ordnung.

1. Es sei

L(y,t0,h)=i=0k(αiy(t0+ih)hβiy˙(t0+ih)).

und

ρ(μ):=i=0kαiμi,fernerσ(μ):=i=0kβiμi.

2. Satz: Nun sind die folgenden 9 Aussagen paarweise zueinander äquivalent.

(1) Cp,k(αβ)=0, also (α,β)kerCp,k.

(2) i=0kαiiq=qi=0kβiiq1, für q=0,1,,p.

(3) ρ(eh)hσ(eh)=O(hp+1), für h0.

(4) ζ=1 ist mindestens p-fache Nullstelle der Funktion

hρ(ζ)lnζσ(ζ),

also ρ(ζ)/lnζ=σ(ζ)+O((ζ1)p), für ζ1.

(5) L(f,t,h)=O(hp+1),fCp+2(G,R).

(6) Die Monome bis zum Grade p liegen im Kern des h=1 Schnittes von L, also L(ti,t0,1)=0, für i=0,1,,p.

(7) L(f,t0,h)=O(hp+1), für die spezielle Funktion tf(t)=et.

(8) y(t0+kh)yk=O(hp+1), falls man die Startwerte als exakte Werte wählt.

(9) L(y,t0,h)=cp+1hp+1y(p+1)(t0)+O(hp+2) mit

cp+1=1(p+1)!i=0k(αiip+1(p+1)βiip)

Diese Liste liesse sich fortsetzen. Einige der Nummern sind lediglich Umformulierungen anderer Nummern. Dennoch ist es gelegentlich nützlich eine der möglichen Formeln in der oben zitierten Form parat zu haben. Die Bedingung der Konsistenz und die Konsistenzordnung ist unabhängig von der Entwicklungsstelle der Taylorentwicklung. Zur praktischen Berechnung von Mehrschrittformeln, die zuerst nicht unbedingt stabil sein müssen, wählt man häufig (1), für den Beweis der Dahlquist-Barriere werden (3) und (4) herangezogen. Einzelne Eigenschaften der obigen Angaben tragen in der Literatur häufig auch gesonderte Namen. Für die Beweise sei beispielsweise verwiesen auf Hairer/Wanner/Nørsett (1987) oder auch Werner/Arndt (1986).

Wählt man, wie bei (8) die Startwerte exakt, also y0=y(t0), y1=y(t0+h) und so fort bis yk1=y(t0+(k1)h), so gilt für den dann entstehenden Fehler zwischen dem nun durch die Formel bestimmten Wert yk und dem exakten Wert y(t0+kh), die Beziehung

y(t0+kh)yk=1αkW1L(y,t0,h).

Hierbei ist W=IhγJ, γ=βk/αk und J ist die Jacobimatrix von f, deren Zeilen ausgewertet wurden an Stellen auf der Strecke zwischen y(tk) und yk. Insbesondere gilt nicht notwendig J=fy(yk), jedoch gilt dies näherungsweise. Im Falle steifer Differentialgleichungen und differential-algebraischer Gleichungen wird auch tatsächlich W1L(y,t0,h), bzw. eine Näherung hiervon, zum Gebrauch als Fehlerkonstante empfohlen, man vgl. hier Petzold (1982) und die dort angeführte Literatur. Im Falle von expliziten Formeln, also βk=0, ist natürlich W=I.

4. Die erste Dahlquist-Barriere

You know, I am a multistep-man … and don't tell anybody, but the first program I wrote for the first Swedish computer was a Runge-Kutta code …
(G. Dahlquist, 1982, after some glasses of wine; printed with permission), Hairer/Wanner/Nørsett (1987)

Das Bemerkenswerte am Hopfschen Problem ist, daß eine einfach zu formulierende algebraische Frage eine einfache algebraische Antwort findet, daß indessen zur Lösung nichttriviale Methoden der Topologie erforderlich sind; hier erscheint zum ersten Mal der “topologische Stachel im Fleisch der Algebra”, der bis auf den heutigen Tag von vielen Algebraikern als so schmerzhaft empfunden wird.
R. Remmert, M. Koecher (1983)

Bibliographisch: Hairer, Ernst (*1949), Wanner, Gerhard (*1942), Nørsett, Syvert Paul, Remmert, Reinhold (1930–2016), Koecher, Max (1924–1990),

Der Kern der Konsistenzmatrix Cp,k hat eine Fülle von sehr speziellen Eigenschaften, die hier zusammengestellt werden sollen. Anhand des sehr strukturierten Aufbaus dieser Matrix sind einige dieser Eigenschaften nicht verwunderlich. Insbesondere einige Symmetrieeigenschaften der Matrix übertragen sich auf den Kern. Nimmt man als Nebenbedingung noch das Erfülltsein der Wurzelbedingung hinzu, so gelten weitreichende Konsequenzen, hier die beiden Dahlquist-Barrieren. Diese beiden Barrieren sind auch eine der Gründe für das verstärkte Interesse an zusammengesetzten Verfahren.

1. Definition: Ein lineares k-Schrittverfahren heißt symmetrisch, falls

αi=αkiundβi=βkifür allei=0,,k.

2. Beispiel: Das Milne-Simpson-Verfahren yn+1yn1=h(fn+1+4fn+fn1)/3 ist symmetrisch, während hingegen alle Adams-Verfahren, implizit oder explizit, nicht symmetrisch sind. Die Nullstellen des charakteristischen Polynoms ρ des Milne-Simpson-Verfahren liegen bei (+1) und bei (1).

Für symmetrische lineare Mehrschrittverfahren gilt ρ(μ)=μkρ(1/μ), aufgrund der obigen Definition. Mit μ ist auch gleichzeitig 1/μ Nullstelle von ρ.

Für ein stabiles lineares Mehrschrittverfahren liegen somit alle Wurzeln auf dem Einheitskreis und sind einfach. An solchen Verfahren ist man eher weniger interessiert, da bei Schrittweiten h0, diese Wurzeln vom Betrage 1 aus dem Einheitskreis nach aussen wandern. Allerdings hängt bei Schrittweiten h0 dieses Verhalten stark vom Prädiktor ab. In der Kombination als Picard-Prädiktor-Korrektor-Verfahren oder als Stufen zyklischer Verfahren haben jedoch symmetrische lineare Mehrschrittverfahren gegenüber anderen Verfahren keine Nachteile.

Ein Verfahren der Konsistenzordnung p liefert für eine Differentialgleichung mit Polynomen des Grades p als Lösung, unter völliger Vernachlässigung von Rundungsfehlern, die exakte Lösung. Ist das Verfahren zusätzlich noch stabil, so konvergiert das Verfahren.

3. Satz: Es gilt

  1. Es existiert kein lineares k-Schrittverfahren der Konsistenzordnung 2k+1.
  2. Es gibt genau ein explizites k-Schrittverfahren der Konsistenzordnung 2k1. Aus βk=0 folgt also automatisch p2k1.
  3. Es gibt genau ein implizites lineares k-Schrittverfahren der Konsistenzordnung 2k.
  4. Dieses eindeutig bestimmte implizite lineare k-Schrittverfahren der maximalen Konsistenzordnung 2k, ist symmetrisch.
  5. Symmetrische lineare Mehrschrittverfahren haben immer eine gerade Konsistenzordnung. Dies heißt, hat man von einem symmetrischen Mehrschrittverfahren die Konsistenzordnung 2ν1 nachgewiesen, so hat das Verfahren auch schon automatisch die eins höhere Konsistenzordnung 2ν.
  6. Zu vorgegebenen Polynomgraden kα und kβ, mit kβkα, kann man Polynome ρ und σ finden, mit gradρ=kα und gradσ=kβ, die ein lineares k=kα-Schrittverfahren festlegen und zwar mit der Konsistenzordnung 1+kα+kβ.
  7. Der Rang der Konsistenzmatrix Cp,k ist für alle p und k maximal. Es gilt also
rankCp,k=min(p+1,k+1),p,kN.

Es war Cp,kZ(p+1)×(2k+2) und mit dem ^{Dimensionssatz für lineare Gleichungssysteme} ergibt sich daher dimkerCp,k=(2k+2)min(p+1,k+1).
Den führenden Koeffizienten αk kann man als Normierungsfaktor auffassen, und damit gibt es genau eine 2kp parameterabhängige Schar von linearen k-Schrittverfahren, falls pk. Von dieser Schar ist aber nach der ersten Dahlquist-Barriere nur ein kleiner Teil als einstufiges Verfahren konvergent.

Es zeigt sich, daß die maximal erreichbare Konsistenzordnung eines linearen Mehrschrittverfahrens der Form i=0k(αiyn+ihβifn+i) durch die Wurzelbedingung an ρ, begrenzt ist. Ist das charakteristische Polynom ρ stabil, so ist dies gleichzeitig ein Hemmschuh für die maximal erreichbare Konsistenzordnung, d.h. Konsistenzordnung und Stabilität beissen sich gegeneinander, oder in noch anderer Formulierung, mehr geometrischer Sprechweise:

Die Menge aller derjenigen Vektoren

(α0,,ακ,β0,,βκ)R2κ+2,

welche zu einem stabilen Polynom ρ(μ)=i=0καiμi führen, beschreibbar durch Ungleichungen vom Routh-Hurwitz-Typ, (Routh, E.J. und Hurwitz, Adolf (1859–1919)) stellt einen nicht-linearen Kegel im R2κ+2 dar. Die lineare Untermannigfaltigkeit beschrieben durch Cp,κ(αβ)=0 schneidet den nicht-linearen Kegel überhaupt nicht für p>κ+2 und berührt ihn für p=κ+1+12[1+(1)κ]. Es gilt der

4. Satz: (Erste Dahlquist-Barriere) Das lineare k-Schrittverfahren sei wenigstens konsistent der Ordnung 1 und das charakteristische Polynom ρ erfülle die Wurzelbedingung.

(a) Dann unterliegt die Konsistenzordnung und damit gleichzeitig einhergehend die Konvergenzordnung p, einer Schranke nach oben wie folgt

p{k+2,falls k gerade ist;k+1,falls k ungerade ist;k,falls βk/αk0, insbesondere falls das Verfahren explizit ist.

(b) Weiterhin gilt: Stabile lineare Mehrschrittverfahren der maximalen Konsistenzordnung k+2 (k also gerade) sind symmetrisch. Bei einem solchen linearen k-Schrittverfahren mit geradem k, besitzt ρ, also wie oben bemerkt, die Wurzeln (+1), (1) und (k2)/2 Paare verschiedener unimodularer Wurzeln. Zu jedem ρ mit dieser Eigenschaft der Wurzeln, existiert genau ein einziges σ, sodaß (ρ,σ) ein lineares k-Schrittverfahren der maximalen Konsistenzordnung k+2 ist.

5. Wegen dem großen Interesse, dem man diesem Satz beimißt, findet man den sehr schönen, funktionentheoretischen Beweisgang in mehreren (8) Büchern. Verwiesen sei hier lediglich auf die schon mehrfach zitierten beiden Bücher von Werner/Arndt (1986) und Hairer/Wanner/Nørsett (1987) sowie Werner/Schaback (1972). Man vgl. auch die Bücher von Gear (1971c), Henrici (1962) und Stetter (1973) (unvollständiger Beweis).

Darüberhinaus ist der Satz erweitert worden, um für eine noch größere Klasse von Verfahren seine entsprechende Gültigkeit zu behalten, man vgl. hier Jeltsch/Nevanlinna (1986). Eine Kurzübersicht über Ordnungsbeschränkungen findet man in dem Tagungsaufsatz von Wanner (1987). G. Dahlquist bewies diesen Satz 1956.

Bibliographisch: Jeltsch, Rolf, Nevanlinna, Olavi, Hairer, Ernst (*1949), Wanner, Gerhard (*1942), Nørsett, Syvert Paul, Dahlquist, Germund, Stetter, Hans Jörg (*1930), Schaback, Robert (*1945), Werner, Helmut (1931--1985), Arndt, Herbert, Gear, Charles William (1935--2022), Henrici, Peter Karl Eugen (1923--1987).

6. Konsequenzen dieser ersten Dahlquist-Barriere sind wie folgt.

6.1. Es gibt kein stabiles lineares 3-Schrittverfahren mit der Konsistenzordnung 6. Es gibt allerdings mehrere lineare zyklische Mehrschrittformeln der Konvergenzordnung 6 mit nur 3 Startwerten, nämlich die Verfahren DH2 und DH3.{Donelson III, John}{Hansen, Eldon} Allerdings erhält man die Lösungswerte stets im “3er-Pack”. Die letzte Stufe dieser beiden dreistufigen Zyklen benutzt für sich alleine nur 3 Startwerte, davon stammen zwei aus dem aktuellen Zyklus, insgesamt jedoch hat man dann 6 Lösungswerte mit äquidistanten Gitterabstand vorliegen.

6.2 Die Adams-Moulton-Verfahren

yn+1yn=hi=0κβifn+iκ

haben die Konsistenzordnung κ und die Konvergenzordnung κ+1, welches für ungerade κ von keinem anderem konvergenten linearen einstufigen Mehrschrittverfahren überboten werden kann.

Als ein Beispiel für die Verallgemeinerungen, sei der Satz von Reimer aus dem Jahre 1968 angegeben, ohne Beweis. Während die erste Dahlquist-Barriere lediglich für lineare Mehrschrittverfahren galt, verallgemeinerte der Satz von Reimer, 12 Jahre später nach der ersten Dahlquist-Barriere, den Sachverhalt auf lineare Verfahren mit beliebig vielen Ableitungen.

Bibliographisch: Reimer, Manfred.

7. Satz: (Satz von Reimer über den maximalen Grad stabiler Differenzenformeln.) Die lineare Differenzenform

L(h,y,,y(m)):=ν=0κμ=0mhμαν(μ)yν(μ),mitκ1,m1

und der Normierung ακ(0)=1 habe den Grad p und sei stabil. Dann gilt

pN+12[1+(1)N+1],mitN=(κ+1)m.

Die Schranke wird für jedes Paar (κ,m)N2 angenommen. Weiterhin wird der maximal mögliche Grad p=N+1 genau dann erreicht, wenn N=(κ+1)m ungerade ist und das Verfahren symmetrisch ist.

Beweis: siehe Reimer (1982).     ☐

8. Die hier häufig auftauchenden BDFi haben das folgende Stabilitätsverhalten. Die BDFi ist ein lineares i-Schrittverfahren der Konsistenzordnung i und definiert durch die Formeln

ν=1i1ννyn+1=hfn+1,n=0,.

9. Satz: Die BDFi sind stabil für i{1,,6} und instabil für alle i7.

Den funktionentheoretischen Beweis findet man in dem Buche von Hairer/Wanner/Nørsett (1987). Die Tatsache, daß die BDFi für alle i7 instabil sind, wurde zuerst 1972 von C.W. Cryer bewiesen. Drei Jahre später erschien ein alternativer Beweis von D.M. Creedon und J.J.H. Miller (alle BIT). Der Satz gilt nicht für zusammengesetzte Verfahren, wo die BDFi als Stufen auftauchen, wie z.B. das zyklische Verfahren siebenter Ordnung von Tendler (1973) ("A Stiffly Stable Integration Process Using Cyclic Composite Methods") deutlich macht. Man siehe auch Tendler/Bickart/Picel (1978).

Bibliographisch: Colin Walker Cryer, Theodore A. Bickart (1936--2023), obituary.

Joel Marvin Tendler: "A Stiffly Stable Integration Process Using Cyclic Composite Methods", Ph.D. Diss., Syracuse University, Syracuse, New York, 26.Feb.1973, viii+iv+172 pages.

5. Die zweite Dahlquist-Barriere

1. Die erste Dahlquist-Barriere schränkt die höchstmögliche Konvergenzordnung ein, aber allerdings nicht allzu drastisch. Sehr drakonisch wird jedoch die Vielfalt A-stabiler linearer Mehrschrittverfahren durch die zweite Dahlquist-Barriere eingeengt. Es stellt sich heraus, daß man über die Ordnung 2 grundsätzlich nicht hinaus kommt. Hier gilt dann also

2. Satz: Zweite Dahlquist-Barriere.

(1) Ein lineares A-stabiles Mehrschrittverfahren ist stets implizit und besitzt höchstens die Konsistenzordnung und damit die Konvergenzordnung 2.

(2) Unter allen linearen A-stabilen Mehrschrittverfahren der Konsistenzordnung 2, besitzt die Trapezregel yn+1=yn+h(fn+1+fn)/2 (ϑ=1/2-Einschrittverfahren) die kleinstmögliche Fehlerkonstante.

Die BDF2 ist das einzige lineare 2-Schrittverfahren, welches A0-stabil ist.

Für den funktionentheoretischen Beweis sei auf die Originalarbeit von Dahlquist (1963) verwiesen, Germund G. Dahlquist (1925--2005). Der Beweis beruht maßgeblich auf den folgenden beiden Sachverhalten und dem Vorzeichenverhalten gewisser Terme.

3. Lemma: Ein k-Schrittverfahren ist A-stabil genau dann, wenn ρ(μ)/σ(μ) das Äußere des Einheitskreises auf die komplexe linke Halbebene abbildet, also Re[ρ(μ)/σ(μ)]<0, für |μ|>1.

4. Satz: Satz von Riesz-Herglotz.

Voraussetzungen: Die Funktion φ(z) sei holomorph für Rez>0. Desweiteren gelte für alle Argumente in der rechten Halbebene Reφ(z)0, also

Rez>0Reφ(z)0.

Ferner genüge φ auf der positiven reellen Achse der Beschränktheitsbedingung sup{|xφ(x)|:0<x<}.

Behauptung: φ hat für alle Argumente aus der rechten Halbebene die Darstellung

φ(z)=dω(t)zit,fürRez>0,

wobei ω(t) beschränkt und nicht fallend ist.

Bibliographisch: Gustav Ferdinand Maria Herglotz (1881--1953), Friedrich Riesz (1880--1956).

Aus dieser einschränkenden Begrenzung der Konvergenzordnung, beziehen Begriffe wie A[α]-, S[δ]-Stabilität, etc., überhaupt ihre Berechtigung. Gäbe es A-stabile lineare k-Schrittverfahren beliebig hoher Ordnung, so wären dies die idealen Verfahren zur Lösung steifer Differentialgleichungen, unter der Voraussetzung daß nicht andere Eigenschaften, wie z.B. Schrittzahl k, Fehlerkonstanten, u.s.w., erheblich verschlechtert würden. Beispielsweise wäre ein A0-stabiles, lineares 4-Schrittverfahren, bei Fehlerkonstanten im Bereich von ca. 110, ein ideales Verfahren zur Lösung steifer Differentialgleichungen. Die zweite Dahlquist-Barriere besagt, daß es solch ein Verfahren prinzipiell nicht geben kann.

Alternative Beweisgänge werden in Wanner (1987), s.u., angedeutet, allerdings nicht streng bewiesen. Die Trapezregel ist nicht A0-stabil. Die Dissertation Tischer (1983) und Tischer/Sacks-Davis (1983) geben A0- und S0-stabile zyklische zweistufige Verfahren an, mit den Konvergenzordnungen p=2,3,4 und benötigten Startwerten von k=2,3,4. Allerdings sind bei allen Stufen der zyklischen Formeln von Tischer (1983) (Dissertation) und Tischer/Sacks-Davis (1983), die Äquilibrierungsmaße vergleichsweise hoch.

Bibliographisch: Peter E. Tischer, Ron Sacks-Davis.

Peter E. Tischer: “The Cyclic Use of Linear Multistep Formulas for the Solution of Stiff Differential Equations”, Ph.D. Thesis, Department of Computer Science, Monash University, Clayton, Victoria, Australia, August 1983, x+180 pages.

Wanner, Gerhard (*1942): "Order Stars and Stability", in “The State of the Art in Numerical Analysis”, Proceedings of the joint IMA/SIAM conference held at the University of Birmingham, 14--18 April 1986, Edited by A. Iserles and M.J.R. Powell, Clarendon Press, Oxford, 1987, 451--471

Die Tatsache, daß ein explizites lineares Mehrschrittverfahren nicht A-stabil sein kann, ist sehr leicht einzusehen. Auch eine beliebige Kombination expliziter linearer Mehrschrittverfahren, mit äquidistanter Gitterweite h, kann nicht A-stabil sein. Sehr wohl kann jedoch eine Kombination von impliziten und expliziten Verfahren sogar A0-stabil sein.

Zusätzliches Licht auf die Beziehung zwischen Konsistenzordnung und Stabilitätseigenschaften wirft der Satz von Jeltsch/Nevanlinna (1982).

Bibliographisch: Rolf Jeltsch, Olavi Nevanlinna.

5. Satz: siehe Jeltsch/Nevanlinna (1982). Es gilt

kN:α[0,90):existiert mindestens ein A[α]-stabiles Verfahren

und

kN:δ>0:existiert mindestens ein S[δ]-stabiles Verfahren.

Weiter gibt es funktionale Zusammenhänge zwischen Fehlerkonstanten und erreichbarer Höchstordnung.

6. Satz: siehe Jeltsch/Nevanlinna (1986).

Voraussetzung: Es sei cp+1 der Fehlerfaktor von

(Lhy)(t):=i=0kj=0mαijhjy(j)(t+ih),cp+1=1y(p+1)(0)(L1y)(0).

Die Wurzeln von ρ0(ζ) seien ζ1=1,ζ2,,ζk, welche in der Einheitskreisscheibe liegen:

|ζi|R,0R1.

Behauptung: (1) Ist die Formel explizit und von der Ordnung p=mk, so gilt

cp+11(m+k)!21kj=0k1(k1j)(1R1+R)jfjkm.

(2) Im impliziten Falle und der Ordnung p=(k+1)m gilt

(1)mcp+1(1)m[(k+1)m]!21kj=0k1(k1j)(1R1+R)jejkm.

(3) In beiden Fällen, also in Fall (1) und (2) ist Gleichheit möglich bei der Formel maximaler Ordnung mit dem charakteristischen Polynom

ρ0(ζ)=(ζ1)(ζ+R)k1,

welches stabil ist, für R<1 oder R=1 und k2.

Die Größen fjkm und ejkm sind gegeben durch

fjkm:=i=0k1TijWi,k1,m,Wjkm:=jj+1ν=0k(tν)dt,

und

ejkm:=i=0k1TijWi,k+1,m,Tij:=μ=max(0,ij)min(nj,i)(jiμ)(njμ)(1)ji+μ,

für j=0,,k1.

Beweis: Jeltsch/Nevanlinna (1986).     ☐

Nach dem Satz von Jeltsch/Nevanlinna (1982) gibt es also “fast A-stabile” lineare Mehrschrittverfahren mit beliebiger Anzahl von Startwerten. Dennoch sind diese Verfahren nicht A-stabil und schon gar nicht A0- oder S0-stabil, nach der zweiten Dahlquist-Barriere. Vielmehr rücken die Wurzeln betragsmässig immer mehr der eins näher, für H, und die Fehlerkonstanten werden mit größer werdenden k immer größer. Beispielsweise verwendet Gupta (1985) k-Schrittverfahren mit den in der Tabelle angegebenen Eigenschaften.

Bibliographisch: Gopal K. Gupta.

p α δ cp+1 μ k
1 90.00 0.0 0.5 0.0 1
2 90.00 0.0 0.083 1.0 1
3 86.46 0.075 0.242 0.32 3
4 80.13 0.282 0.374 0.43 5
5 73.58 0.606 0.529 0.567 7
6 67.77 1.218 0.724 0.878 9
7 65.53 1.376 1.886 0.898 12
8 64.96 1.149 7.686 0.790 16
9 62.78 2.086 16.737 0.989 19
10 63.74 1.223 133.955 0.878 26

Hierbei bedeutet p die Konvergenzordnung, k die Anzahl der Startwerte, cp+1 der Fehlerfaktor, α der Widlund-Winkel, und δ ist der entsprechende Wert bei der S[δ]-Stabilität. μ ist der Betrag der betragsmässig größten Wurzel bei .

Es zeigt sich, daß das Programm DSTIFF, welches diese Formeln benutzt, häufig doppelt so viele Funktionsauswertungen und doppelt so lange Rechenzeiten beansprucht, wie das Programm LSODE, welches auf den BDFi, mit i{1,,5} basiert. Man beachte allerdings, daß hier Implementierungen von Formeln und Heuristik miteinander verglichen wurden. Dieser Vergleich, den Gupta (1985) anstellte, ist also keine endgültige Wertung von Formeln, sondern eine Wertung von Programmen. Eine geschickte Programmierung und eine durchdachte Heuristik sind von nicht zu unterschätzender Wichtigkeit.

Aufgrund einer modifizierten Strategie für die Korrektoriteration in dem Programm DSTIFF, sind die Anzahlen für LU-Zerlegungen (= Jacobimatrixauswertungen) leicht geringer, als für das Programm LSODE. Lediglich erwartungsgemäss für das Problem B5 benötigt das Programm DSTIFF bedeutend weniger Schritte, als das Programm LSODE. Bei diesem Problem werden die Stabilitätseigenschaften besonders gefordert. Wüßte man im voraus um die Lage der Eigenwerte der konstanten Jacobimatrix, so könnte man bei dem Programm LSODE gleich von vorne herein eine passende Höchstordnung wählen und damit würden sich beide Programme wieder angleichen. Das Verhältnis der Schritte der beiden Programme zueinander beträgt bei B5 grob 1:4 (DSTIFF:LSODE). Dieses Verhältnis übersetzt sich allerdings nicht in gleichem Maßstab auf die Rechenzeit. Die Rechenzeit ist lediglich um einen wesentlich geringeren Betrag angestiegen.

Eine gewisse Sonderstellung nehmen die BDFi ein, wegen σ(μ)=μi.

7. Bemerkung: Die BDFi sind die einzigen linearen i-Schrittverfahren der Konsistenzordnung i, für i=1,,6, die A0[α]- bzw. S0[δ]-stabil sind.

Es gibt weitere lineare Mehrschrittverfahren (BDFi), die A0[α]- bzw. S0[δ]-stabil sind, jedoch ist dann die Konsistenzordnung i nicht mehr mit i Startwerten zu erreichen. Für mehrstufige Verfahren gilt die Bemerkung nicht mehr, wie z.B. die zyklischen Formeln von Tendler (1973) ("A Stiffly Stable Integration Process Using Cyclic Composite Methods") deutlich machen, siehe auch Tendler/Bickart/Picel (1978).

6. Annullierte Dominanz und Totalannullation

Wie üblich bedeute “” Gleichheit bis auf O(hp+2). Jede Stufe eines zusammengesetzten Verfahrens wird nun in einen Taylorabschnitt (Taylor, Brook (1685--1731)) zerlegt und man erhält hierfür

γ(c11y˙h++c1,p+1y(p+1)hp+1c21y˙h++c2,p+1y(p+1)hp+1cs1y˙h++cs,p+1y(p+1)hp+1)=(c11c1pc21c2pcs1csp)Cs×(p+1)(y˙hy¨h2y(p)hp)Cp

γ kann aufgespalten werden in eine Summe

γ(c11cs1)y˙h+(c21cs,2)y¨h++(c1,p+1cs,p+1)y(p+1)hp+1

und jeder Summand wird einzeln auf annullierte Dominanz, oder Totalannullation geprüft. Bei Verfahren, bei denen alle Stufen die gleiche Konsistenzordnung haben, sind cij=0, für jp, und i=1,,s, und die obige Gleichung reduziert sich dann auf

γ(c1,p+1y(p+1)hp+1cs,p+1y(p+1)hp+1)=(c1,p+1cs,p+1)y(p+1)hp+1.

1. Beispiel: Es werde das explizite Euler-Verfahren als Prädiktor verwendet und mit der BDF2 werde zweimal anschliessend iteriert.

Schritt Formel Verfahren
Prädiktor yn+10=yn+zn explizites Euler-Verfahren
Korrektor yn14yn+3yn+11=2zn+10 BDF2
Korrektor yn14yn+3yn+1=2zn+10 BDF2

Mit un=(yn0,yn1,yn) ergibt sich für die sechs Matrizen

A0=(000001001),A1=(001004004),A2=(100030003),B0=B1=0,B2=(000200020).

Für das Matrixpolynom ρ(μ)=A0+A1μ+A2μ2 ergibt sich

ρ(μ)=(μ20003μ214μ003μ24μ+1)

Auffällig ist die obere Dreiecksgestalt und die Verteilung der μκ-Terme auf der Diagonalen. Weiterhin erscheint in der rechten unteren Ecke das charakteristische Polynom des Korrektors. Dieser Sachverhalt gilt ganz allgemein. Der Nullensatz für Prädiktor-Korrektor-Verfahren lautet:

2. Satz: Sei ρc das charakteristische Polynom des Korrektors. Für das Matrixpolynom eines P(EC)i{E}-Verfahrens, mit

ρ(μ)=ν=0κAνμν,degρ=κ,AνC(i+1)×(i+1),ν=0,,κ,

hat man für alle μC die Darstellung

ρ(μ)=(α11μκ00α22μκ00ρc(μ))C(i+1)×(i+1).

Beweis: (Nullensatz) Es ist

un+ν=(yn+ν0yn+νi1yn+ν),ν=κ+1,,1.

Die ersten i Komponenten der Vektoren un+ν kommen in der letzten Korrektorstufe nicht vor. Die Matrizen A0,,Aκ1 tragen Elemente lediglich auf der letzten Spalte, sind also alle von der Form

A0A1Aκ1(0000)

während hingegen Aκ Diagonalgestalt hat, also

Aκ=(α1100ακ),

wobei α11=ακP, der führende Koeffizient des Prädiktor-Verfahrens ist und α22==αi+1,i+1=ακ gleich dem führenden Koeffizient des Korrektors ist. Summation der Aνμν ergibt die Behauptung.     ☐

Nur yn+1, also die Lösung der impliziten Korrektorgleichung für die Zeit tn+1, ist gesucht. Die anderen vergangenen Werte sind schon gefunden. Die Zwischenwerte der vergangenen Iterationen werden nicht mehr verwendet, anders als bei semiiterativen Verfahren. Würde man diese dennoch verwenden, so könnte sich natürlich auch das Spektrum ändern, weil sich sich dann auch die obere Dreiecksgestalt ändert. Vorausgesetzt wird hier ebenfalls, daß immer mit dem gleichen Korrektor iteriert wird, und daß nur ein einziger Prädiktor genommen wird. Z.B. verwenden off-step-point Verfahren u.U. mehrere Prädiktoren, so auch Filippi/Kraska (1973).

Bibliographisch: Siegfried Filippi (1929--2022), Ernst Kraska (1932--2021), Todesanzeige.

3. Folgerungen: (1) Das charakteristische Polynom Q(μ,0)=detρ(μ) sowohl des P(EC)iE-, als auch des P(EC)i-Verfahrens hat mindestens κi Nullen im Spektrum und die restlichen κ Eigenwerte stimmen mit den Wurzeln des charakteristischen Polynomes ρc des Korrektors überein.

(2) Insbesondere ist ein P(EC)iE- bzw. P(EC)i-Verfahren genau dann stabil, wenn der Korrektor stabil ist. Die Stabilität der Prädiktorformel ist völlig unerheblich für die D-Stabilität des P(EC)iE- bzw. P(EC)i-Verfahrens. Sehr wohl hat natürlich der Prädiktor Einfluß auf das Aussehen des Stabilitätsgebietes.

(3) Die Linkseigenvektoren vm mit m=1,, zu den nicht zu Null gehörenden Eigenwerten, also somit mκ, sind alle von der Form

vm=(0,,0,1)C1×(i+1),mκ.

Folgerung (2) kann man auch auf andere Art und Weise einsehen. Seien die beiden Funktionen φ und ψ Lipschitz-stetig, dann ist auch die verkettete Funktion φψ Lipschitz-stetig. Ist also

|φ(x)φ(y)|K|xy|und|ψ(u)ψ(v)|L|uv|,

so gilt

|φ(ψ(u))φ(ψ(v))|K|ψ(u)ψ(v)|KL|uv|.

Denkt man sich nun ein Picard-Prädiktor-Korrektor-Verfahren nicht als einziges mehrstufiges, i.d.R. lineares Verfahren, sondern denkt man es sich als ein ineinander verschachteltes, i.d.R. nicht-lineares Verfahren, so sieht man ebenfalls sofort, daß für die Stabilitätseigenschaften bzgl. h0, nur der Korrektor maßgeblich ist und der Prädiktor unmaßgeblich ist.

4. Sei der Prädiktor z^n+κ gegeben durch die Matrix-Differenzengleichung

A^0zn++A^κ1zn+κ1+A^κz^n+κ=hφ(zn,,zn+κ1),A^κ=I

und der Korrektorwert ergebe sich als Lösung der Matrix-Differenzengleichung

A0zn++Aκzn+κ1+Aκ=hψ(zn,,zn+κ1,zn+κ),Aκ=I.

Picard-Iteration besteht nun darin, daß man den Wert zn+κ in der Funktion ψ ersetzt durch die Iterierte der vorherigen Iteration, also wird zn+κ in ψ ersetzt durch z^n+κ. Direkte Substitution der Bestimmungsgleichung für den Prädiktorwert z^n+κ in die Funktion ψ, ergibt dann

i=0κAizn+i=hϑ(zn,,zn+κ1),

wobei die Funktion ϑ Lipschitz-stetig ist und damit erhält man mit den üblichen Sätzen bei gegebener Konsistenz und Stabilität dann die Konvergenz. Über die Entstehungsgeschichte von ϑ braucht man nichts zu wissen, außer eben, daß ϑ Lipschitz-stetig bzgl. seiner Argumente ist. Insbesondere die Nullstabilität hängt jetzt offensichtlich nur noch von den Matrizen Ai ab. Iteriert man häufiger als einmal, also Picard-P(EC)i{E} (i>1), so wird die Verschachtelungtiefe nur höher, am Prinzip ändert sich nichts.

Aus der Folgerung (3) ergibt sich jetzt sofort, daß die Fehlervektoren des Prädiktors und die Fehlervektoren der Zwischeniterierten von den Linkseigenvektoren vm vollständig weggefiltert werden. Dies heißt, die Eigenwerte nicht gleich Null bekommen nur den Fehlerfaktor des Korrektors zu Gesicht und die restlichen Fehlerfaktoren werden von den Nullen im Spektrum total annulliert. Überhaupt gibt es Parallelen zwischen Runge-Kutta-Verfahren und Prädiktor-Korrekor-Verfahren. Prädiktor-Korrektor-Verfahren steht hier sowohl für P(EC)iE- also auch für P(EC)i-Verfahren, kurz P(EC)i{E}-Verfahren. Diesen Effekt der Totalannullation kann man anhand eines Beispiels besonders deutlich nachvollziehen.

5. Beispiel: Als Prädiktor-Korrektor-Verfahren werde verwendet

Schritt Formel Verfahren
Prädiktor yn+10=yn+zn explizites Euler-Verfahren
Korrektor yn14yn+3yn+1=2zn+10 BDF2

Mit un=(yn0,yn) erhält man die sechs Matrizen

A0=(0001),A1=(0104),A2=(1003),B0=0,B1=(0100),B2=(0020).

Als Lösung für die Differenzengleichung

A2un+2+A1un+1+A0un=ΓZ^,n=0,1,

erhält man nach Durchmultiplikation mit A21 für den dominanten Term

(1101)(001/31)(0101)(1/202/3)Z^.

Die ersten Fehlerterme des Prädiktors sind h2/2y¨+O(h3) und für den Korrektor lauten sie 2h3/3yIII+O(h4).

Die Fehlervektoren des Prädiktors liegen nun gerade so, daß sie genau auf diese Nullen heraufpassen, das heißt die Fehlervektoren stehen senkrecht auf den nicht zu Null gehörenden Jordanvektoren. Die vom Prädiktor gelieferten niedrigen Konsistenzordnungen, werden deswegen total annulliert (Totalannullation). Dieses Verhalten ist völlig analog dem Verhalten bei Runge-Kutta-Verfahren, wo die Stufen mit niedrigen Konsistenzordnungen von den Nullen in der Jordanmatrix

J=(00001)

vollständig bedämpft werden und somit keinerlei Wirkung zeigen. Dies gilt zumindestens im asymptotischen Falle h0, wo allein einzig die Aν entscheidend wirken und die Matrizen Bν keine Rolle spielen.

6. Beispiel: Runge-Kutta-Verfahren mit insgesamt 4 Stufen.

A=(0001000100010001),X=(1001010100110001),J=(000001),Y=(1100011000110001)

Die Konsistenzordnung kann pro Stufe um eine Einheit steigen. Die Matrix C hat somit die Form

C=(c10c200c3000c4)

7. Beispiel: Die hier zutage tretende Ähnlichkeit zwischen Runge-Kutta-Verfahren und P(EC)i{E}-Verfahren gilt sogar soweit, daß manche P(EC)i{E}-Verfahren mit bestimmten expliziten Runge-Kutta-Ver-fahren völlig gleichwertig sind. Zum Beispiel gilt für das verbesserte Euler-Verfahren mit dem Parametertableau

111212k0=f(t0,y0)k1=f(t0+h,y0+hk0)y1=y0+h2(k0+k1)

daß es völlig identisch ist mit dem impliziten Trapezverfahren, wobei das explizite Euler-Verfahren als Prädiktor verwendet wird:

yn+1=yn+h2{fn+fn+1}PECEyn+h2{fn+f(tn+1,yn+hfn)}.

Die Analyse beider Verfahren geschieht häufig völlig getrennt. Die Konsistenzordnung 2 des verbesserten Euler-Verfahrens weist man häufig durch Taylorentwicklung direkt nach. Beim Prädiktor-Korrektor Verfahren wendet man die Konsistenzsätze an, weist Stabilität des Korrektors nach und zeigt schließlich mit Hilfe des Satzes von Liniger (1971), daß die Konsistenzordnung des Korrektors erhalten bleibt, wenn man ausreichend lange iteriert.

8. Wichtig für das Konvergenzverhalten ist die spektrale Struktur der drei Matrizen X, J und Y:

X:XJνYγ=,J:JνYγ=,Y:Yγ=(0).

Seien v1,,vr die Linkseigenvektoren zum Matrixpolynom ρ zum Eigenwert λ=1, so gilt als Bedingung der annullierten Dominanz

viρ(1)=0,viγ=0,vi0,i=1,,r.

Für den Fall r=1 erhält man also die geometrische Bedingung, daß die Spalten der Matrix (ρ(1),γ) aus dem orthogonalen Komplement von v sein müssen, somit

(ρ(1),γ)v.

Ist der Linkskern von ρ(1) nicht mehr 1-dimensional, sondern r-dimensional, so hat die Bedingung zu gelten

(ρ(1),γ)(span(v1,,vr))

Für Eigenwerte |μ|=1 gilt ganz entsprechend

(ρ(μ),γ)(span(v1,,vr)),

wobei r jetzt die Vielfachheit des Eigenwertes zu |μ|=1 ist und entsprechend v1,,vr die Linkseigenvektoren zu diesem Eigenwert sind. Algebraische Vielfachheit (=Multiplizität der Nullstelle des charakteristischen Polynoms) und geometrische Vielfachheit (=Dimension des invarianten Unterraumes) müssen bei dominanten Eigenwerten natürlich gleich sein. Anhand der oben schon angegebenen Darstellung für die Lösung der Matrixdifferenzengleichung, und zwar in der Form

um+1=XTm+1c+Xi=0mTmiYfi,m=0,1,,

ist das Auftauchen der Linkseigenvektoren sofort offenkundig. Die Bedingung der annullierten Dominanz ist eine stetige Invariante, da bei einfachen Eigenwerten die Eigenvektoren stetig von kleinen Änderungen abhängen. Bei mehrfachen Eigenwerten muß dies nicht unbedingt gelten.

7. Das n-dimensionale äußere Produkt für n1 Vektoren

Man vgl. auch On Differential Forms.

1. Da die Determinante in jeder Spalte linear ist, stellt

xdet(a1,,an1,x)

für fest gegebene a1,,an1Rn, eine Linearform des Rn dar. Nach dem Darstellungssatz von Riesz:

Sei H ein Hilbertraum, und sei f:HC ein stetiges lineares Funktional, dann

˙bH:xH:f(x)=b,x

und weiter ist |b|=|f|.

Daher gibt es genau einen Vektor bRn, sodaß die Linearform als Skalarprodukt geschrieben werden kann:

(*)˙b:x:det(a1,,an1,x)=b,x(ai fest).

Bibliographisch: Riesz, Friedrich (1880--1956).

2. Diesen, implizit durch das Skalarprodukt, eindeutig bestimmten Vektor b nennt man das Vektorprodukt (auch Kreuzprodukt oder äußeres Produkt) und schreibt hierfür

b=:a1an1=:i=1n1ai,

oder auch

a1××an1=×i=1n1ai.

Es gilt also

(**)det(a1,,an1,x)=i=1n1ai,x.

3. Hieraus liest man ab

i=1n1ai=0ai linear abhängig,a1aiakan1=(a1akaian1),a1ai+a^ian1=(a1aian1)+(a1a^ian1),a1λaian1=λ(a1aian1),i=1n1ai,ak=0,k=1,,n1.

Die letzte Gleichung sagt, daß das äußere Produkt senkrecht auf jedem “Einzelfaktor” steht. Weiter kann man jetzt noch die Jacobische und die Grassmannsche Identität leicht nachrechnen. Die obigen Gleichungen gelten auch für n=2, wobei dann i=11ai=a1 ist.

Bibliographisch: Grassmann, Hermann (1809--1877), Jacobi, Carl Gustav (1804--1851).

Das oben eingeführte äußere Produkt ist ein spezielles äußeres Produkt. Es gibt weitere äußere Produkte. Bei diesen ist der Bildbereich nicht mehr notwendig gleich Cn, sondern C[(nm)], bei einem m-fachen Produkt. Für m=n1 ergibt sich natürlich genau das oben angegebene Produkt, bis auf Proportionalität.

4. Die Komponenten des Vektors b bei (), ergeben sich durch sukzessives Einsetzen der n Einheitsvektoren ei zu

bi=b,ei=det(a1,,an1,ei),i=1,,n.

Für den Betrag des äußeren Produktes gilt

|i=1n1ai|2=|a1,a1a1,an1a1,an1an1,an1|,

weges des Satzes über die Gramsche Determinante (Gram, Jorgen Pedersen (1850--1916))

det(a1,,an)det(b1,,bn)=|a1,b1a1,bnan,b1an,bn|.

5. Die Definition des Vektorproduktes kann auch in der folgenden Form geschehen:

xdet(a1,,ai1,x,ai+1,,an)

ist eine Linearform für feste ai, u.s.w. Die a1,,ai1,x,,ai+1,,an bilden ein Rechtssystem.

6. Beispiel: n=3. Gesucht sind die Komponenten des Vektorproduktes a×b, mit a=(α1,α2,α3) und b=(β1,β2,β3). Zu berechnen sind drei Determinanten,

a×b=(|α1β11α2β20α3β30||α1β10α2β21α3β30||α1β10α2β20α3β31|)=(α2β3α3β2α3β1α1β3α1β2α2β1).

7. Beispiel: n=2. Gesucht sind die Komponenten des Vektors a, welcher senkrecht steht auf a, mit a=(α1α2). Das äußere Produkt liefert gerade solch einen Vektor. In diesem Fall hat das Produkt nur einen Faktor. Zu berechnen sind hier n=2 Determinanten und zwar

a=(|α11α20||α10α21|)=(α2α1).

Eine Einführung in das Vektorprodukt findet man beispielsweise in den Büchern von Walter (1986) oder Koecher (1985). Besonders hervorzuheben ist hierbei die ausführliche Darstellung von Gröbner (1966).

Bibliographisch: Rolf Walter (1937--2022), Max Koecher (1924--1990), Wolfgang Gröbner (1899--1980).

8. Äußeres Produkt und Fehlerkonstanten

Für die Fehlerkonstante von Henrici

C:=vγvρ(1)w,{vρ(1)=0,v0,ρ(1)w=0,w0,

erhält man nun das folgende Resultat. Da das äußere Produkt i=1n1ai senkrecht steht auf ai, für i=1,,n1, ist dieses Produkt also Linkseigenvektor von ρ(1), wenn man die Spalten der Matrix ρ(1) mit ai bezeichnet und einen Spaltenvektor, sagen wir an, herausstreicht. Wenn man einmal von Umnumerierungen absieht, so hat man damit alle Fälle abgedeckt. Die Restmatrix sei

ρ(1)^Rn×(n1).

Ist i=1n1ai=0, so hat ρ(1) einen mehrfachen Eigenwert μ=1; man erhält hier also zugleich ein leichtes Kriterium, unter der Voraussetzung starker Stabilität. Dies liegt daran, daß das Vektorprodukt genau dann verschwindet, falls die Faktoren linear abhängig sind, siehe Gröbner (1966). Da die Berechnung von i=1n1ai allerdings häufig über Determinanten geschieht, ist dieses Kriterium von der praktischen Rechnung nicht immer günstig. Wie starke Stabilität nachgewiesen wurde, sei hier dazu noch nicht einmal berücksichtigt. Für die Fehlerkonstante ergibt sich wegen ()

C=det(ρ(1)^,γ)det(ρ(1)^,ρ(1)w).

Dies heißt, das Volumen der durch die linear unabhängigen Spaltenvektoren von ρ(1) und dem Vektor γ aufgespannten Körpers, ist der Zähler der Henricischen Fehlerkonstante.

Verschwindet der Zähler der Henricischen Fehlerkonstante, so liegt annullierte Dominanz vor. Albrecht (1979) nennt dies die Ordnungsbedingung. Durch Berechnen von det(ρ(1)^,γ) kann man dies also überprüfen. Diese Prüfung auf annullierte Dominanz kann man natürlich auch ohne den Umweg über das Kreuzprodukt, wie folgt herleiten. Aus

v0,vρ(1)=0,vγ=0

folgt, daß die zusammengesetzte Matrix (ρ(1),γ) nicht maximalen Rang haben kann, also

rank(ρ(1),γ)=κn1,somitdet(ρ(1)^,γ)=0.

Hierbei war n1 die Vielfachheit des Eigenwertes μ=1. Für Eigenwerte |μ|=1 gilt allgemein rank(ρ(μ),γ)=κnμ, mit nμ Vielfachheit des Eigenwertes |μ|=1. Falls nμ1 dann det(ρ(1)^,γ)=0.

Damit sind alle denkbaren Fälle erschöpft, wenn man von Umnumerierungen absieht.

1. Beispiel: Zweistufiges, zyklisches lineares Mehrschrittverfahren mit zwei Startwerten. Die erste Stufe, mit Fehlerfaktor γ1, sei

α01y2n+α11y2n+1+α21y2n+2=

und die zweite Stufe, mit Fehlerfaktor γ2, sei

α02y2n+α12y2n+1+α22y2n+2+α32y2n+3=.

Dann ist

ρ(1)=(α01+α21α11α02+α22α12+α32).

2. Bedingung der annullierten Dominanz für zweistufige Verfahren. Mit % ist der Modulo-Operator bezeichnet, wie in der Sprache C. Für zweistufige Verfahren hat man

ρ(1)=(i%2=0αi1i%2=1αi1i%2=0αi2i%2=1αi2)=:(αg1αu1αg2αu2)

und der Fehlervektor sei γ=(γ1,γ2). Aufgrund der Konsistenz ρ(1)(11)=(00), ist

αu1+αg1=0,αg2+αu2=0.

Ist nun die Matrix ρ(1) nicht die Nullmatrix, so erhält man als Linkseigenvektor zu ρ(1) natürlich

(αg1αg2)=(αg2αg1)

und damit als Bedingung für annullierte Dominanz

αg1γ2=αg2γ1.

Wäre jetzt (αg1,αg2)=(0,0), so wäre die Matrix ρ(1) gleich der Nullmatrix und die Bedingung der annullierten Dominanz führte zu der Bedingung, daß der Fehlervektor γ sowohl auf (10), als auch auf (01) senkrecht stehen müßte. Damit wäre γ1=γ2=0, die Bedingung also leer. Die Konsistenzordnung im modifizierten Sinne wäre schon eine Ordnung höher als die wirklich erreichte Konvergenzordnung.

3. Beispiel: Verwendet man als erste Stufe das ^{Verfahren von Milne-Simpson} der Ordnung 4, mit

3yn+13yn1=zn+1+4zn+zn1

und als zweite Stufe ein beliebiges Verfahren dritter Ordnung, so ist die Bedingung der annullierten Dominanz automatisch erfüllt, wegen

αg1=0,γ1=0.

Das so gebildete zweistufige Verfahren konvergiert dann insgesamt mit der Ordnung 4.

4. Bedingung der annullierten Dominanz für dreistufige Verfahren. Sei der Fehlervektor des Verfahrens bezeichnet mit γ=(γ1,γ2,γ3) und der Matrix ρ(1) sei gegeben durch

ρ(1)=(i%3=0αi1i%3=1αi1i%3=2αi1i%3=0αi2i%3=1αi2i%3=2αi2i%3=0αi3i%3=1αi3i%3=2αi3)=:(m1n1m2n2m3n3)

wobei

mi:Summe der αi-Koeffizienten mit i=3k+1,ni:Summe der αi-Koeffizienten mit i=3k+2 .

Als Bedingung für annullierte Dominanz ergibt sich nun

γ1(m2n3m3n2)+γ2(m3n1m1n3)+γ3(m1n2m2n1)=0,

unter der Voraussetzung, daß ρ(1) den Rang 2 hat.

Die Verallgemeinerung auf den r-stufigen Fall ergibt unmittelbar

ρ(1)=(i%r=0αi1i%r=r1αi1i%r=0αiri%r=r1αir)

9. Rechenregeln für Fehlerkonstanten

1. Henrici, Peter Karl Eugen (1923--1987). Hier wird nun allgemeiner eine Klasse von Fehlerkonstanten vorgestellt und die Beziehung zueinander werden aufgezeigt. Liegt das Verfahren zn+1=Azn+hφn zugrunde mit Fehlervektor γ, so wird eine Fehlerkonstante definiert durch

CA=v~γ~v~w,{v~A=v~,v~0,Aw=w,w0.

Sei jetzt leicht allgemeiner Lzn+1=Uzn+hφn. Dann gilt

CA=vγvLw,{v(L+U)=0,v0(L+U)w=0,w0.

Dies gilt wegen A=L1U, daher

AI=(L1U+I)=L1(L+U).

Aus v~(AI)=0 folgt

v~L1(L+U)=(vL)L1(L+U)=0,

und damit ist v Linkseigenvektor von Lμ+U zum Eigenwert μ=1, während v~=vL1 und γ~=L1γ war. Vorausgesetzt ist natürlich, daß das Matrixpolynom Lμ+U monisch ist, also L invertierbar ist. Wegen der Null-Stabilität des Verfahrens ist das natürlich der Fall. Erkennbar ist auch, daß der Nenner nicht verschwinden kann, da die Matrix A zur Klasse M gehört, siehe Ortega (1972).

Bibliographisch: Ortega, James McDonough.

Die obige Fehlerkonstante verallgemeinert sich sinngemäß bei mehrfachen Eigenwerten μ=1.

Da die zyklischen Verfahren in der Dissertation von Tendler (1973) oder Tendler/Bickart/Picel (1978), in der Dissertation von Tischer (1983) und Tischer/Sacks-Davis (1983) und schließlich auch alle zyklischen Verfahren von Donelson/Hansen (1971) jedoch nur einen einfachen Eigenwert bei μ=1 besitzen, wird dieser Fall hier nicht weiter verfolgt.

Bibliographisch: Peter E. Tischer, Ron Sacks-Davis, Donelson III, John (1941--2010), biography, Hansen, Eldon Robert (*1927), wiki.

Joel Marvin Tendler: "A Stiffly Stable Integration Process Using Cyclic Composite Methods", Ph.D. Diss., Syracuse University, Syracuse, New York, 26.Feb.1973, viii+iv+172 pages.

Peter E. Tischer: "The Cyclic Use of Linear Multistep Formulas for the Solution of Stiff Differential Equations", Ph.D. Thesis, Department of Computer Science, Monash University, Clayton, Victoria, Australia, August 1983, x+180 pages.

Im folgenden werden zwei Eigenschaften der Fehlerkonstanten von Henrici gezeigt. Zum einen ist die Fehlerkonstante von Henrici unabhängig von einer Skalierung des Verfahrens und zum anderen kann man sich auf den Fall einer Linearisierung des Matrixpolynomes beschränken. Für die praktische Rechnung von Linkseigenvektoren und weiteren Größen ist es natürlich günstiger das Verfahren in Form eines Matrixpolynomes mit möglichst geringer Dimension darzustellen. An anderer Stelle wiederum ist es angebrachter die Linearisierung zu betrachten, um nur mit einer einzigen Matrix zu hantieren. Daher ist es günstig für beide Darstellungen äquivalente Beschreibungen zur Verfügung zu haben.

Als nächstes wird nun also gezeigt, daß die Fehlerkonstante von Henrici unanhängig von einer Skalierung der Stufen ist. Jede Stufe darf beliebig mit einem Faktor (0) multipliziert werden, der gesamte Zyklus darf sogar einer nichtsingulären Skalierung unterzogen werden. Weiterhin ersieht man hieraus, daß die Fehlerkonstante von Henrici unabhängig von der Reihenfolge der Stufen ist. Für die umgedrehte Reihenfolge der Stufen wählt man beispielsweise einfach die Hankelmatrix D=(δi,s+1j)i,j=1sCs×s. Eine Vertauschung von Stufen innerhalb eines Zykluses kann natürlich sehr wohl die Anzahl der Startwerte ändern, u.U. kann sich also auch sogar die Anzahl der Matrizen im Matrixpolynom ändern. Dieser Fall ist dennoch mitberücksichtigt, da man ja das “alte” Verfahren mit Nullmatrizen ergänzen kann.

2. Satz: Sei DGL(C,s) und sei ρ^(μ)=Dρ(μ) das skalierte Polynom. Das zu dem Matrixpolynom ρ gehörige Verfahren habe die Fehlerkonstante

C=vγvρ(1)w{vρ(1)=0,v0,ρ(1)w=0,w0.

Der Vektor γ enthält hierbei die Fehlerfaktoren der Stufen. C^ sei die Fehlerkonstante von Henrici des skalierten Verfahrens. Dann gilt

C=C^.

Beweis: Es ist ρ^(1)=Dρ(1), γ^=Dγ, und v^:=vD1 ist Linkseigenvektor von ρ^(1). Die Ableitung des Matrixpolynomes ρ an der Stelle 1 skaliert sich ebenfalls entsprechend, also ρ^(1)=Dρ(1). Der Rechtseigenvektor w ist auch gleichzeitig Rechtseigenvektor von ρ^(1). Nun ist

C^=v^γ^v^ρ^(1)w^=vD1DγvD1Dρ(1)w=C.

    ☐

3. Sei jetzt allgemeiner statt des Matrixpolynoms ρ(μ)=Lμ+U, betrachtet der Fall des Matrixpolynoms

ρ(μ):=A0+A1μ++Aκμκ.

Dann ist

CH=vγvρ(1)w,

eine Fehlerkonstante. Hierbei sind v und w entsprechend die Links- und Rechtseigenvektoren des Matrixpolynomes ρ(μ) zum dominanten Eigenwert μ=1, es ist also

vρ(1)=0,v0undρ(1)w=0,w0.

Durch Wahl einer speziellen Norm und entsprechende Normierung des Vektors w kann man dann auch den bestimmten Artikel benutzen.

In natürlicher und offensichtlicher Weise wird hiermit die klassische Fehlerkonstante von Henrici verallgemeinert. Auch hier kann der Nenner nicht verschwinden, da, wie unten gezeigt wird, diese Konstante mit der oben angegebenen Konstante äquivalent ist. Sind die Koeffizienten des Polynomes Ai nicht von der Form αiI, so gilt nicht notwendig ρ(1)=σ(1), wie man anhand des folgenden Beispiels einsieht.

4. Beispiel: Die zyklische, zweimalige Hintereinanderausführung der BDF2 führt auf die Matrix mit den Einträgen

(A0,A1|B0,B1)

und den Elementen

(1430002001430002).

Hier ist ρ(μ)=A0+A1μ und σ(μ)=B1μ. Offensichtlich gilt jetzt nicht ρ(1)=σ(1), da ρ(1)A1σ(1)B1 und dies obwohl jede Stufe die gleiche Konsistenzordnung hat, ja sogar alle Stufen gleich sind.

Nun wird gezeigt, daß alle angegebenen Fehlerkonstanten äquivalent sind. Um die nachstehenden Überlegungen durchsichtiger zu gestalten, soll anhand eines einfachen Beispieles unter anderem einige Eigenschaften der Begleitmatrix gezeigt werden.

5. Beispiel: Es sei das Polynom

ρ(μ)=α0+α1μ+α2μ2+μ3

vorgelegt, und es sei ρ(1)=0. Die Koeffizienten dieses Polynoms seien aus einem beliebigen Ring, nicht notwendig kommutativ, wobei 1 das neutrale Element bezeichne. Die Begleitmatrix zu ρ sei

C1=(010001α0α1α2),alsoIC1=(110011α0α11+α2).

Jetzt ist

v=(α1+α2+1,α2+1,1)

Linkseigenvektor des Matrixpolynoms IμC1 zu μ=1, wegen

v(IC1)=((α1+α2+1)+α0,(α1+α2+1)+(α2+1)+α1,(α2+1)+(α2+1))=(0,0,0),

da ja α0+α1+α2+1=0, aufgrund ρ(1)=0. Wichtig ist noch zu vermerken, daß die Summe der Komponenten des Vektors v, gerade die Ableitung des Polynoms an der Stelle 1 ist, also es gilt

v(111)=(α1+α2+1)+(α2+1)+1=3+2α2+1α1=ρ(1).

Wegen ρ(1)=0 ist selbstverständlich w=(1,1,1) Rechtseigenvektor der Matrix C1. Den Linkseigenvektor zu C1Cs×s kann man natürlich auch über das äußere Produkt erhalten. Aus der Matrix (IC1) streicht man eine Spalte und ersetzt diese Spalte sukzessive s-mal durch den i-ten Einheitsvektor, für i=1,,s und berchnet die s Determinanten, also die Komponenten des äußeren Produktes.

Interessant ist in diesem Zusammenhang der nachstehende Zusammenhang zwischen Rechtseigenvektoren und Begleitmatrix, siehe Schäfke/Schmidt (1973), S.94.

Bibliographisch: Schäfke, Friedrich Wilhelm (1922--2010), Schmidt, Dieter (*1941).

6. Satz: Sei C1 die Begleitmatrix des monischen Polynoms ρ des Grades n. Ist 0μC Nullstelle von ρ(μ) der genauen Ordnung r, so liefert die vektorwertige Funktion w0:CCn definiert durch

w0(μ):=(1μμn1)

mit

wi(μ):=1i!w(i)(μ),i=0,1,,r1

ein System von Rechts-Jordanvektoren zum Eigenwert μ von C1, für welches also gilt

(C1μI)wi={0,für i=1,wi1,für i=2,3,,r.

Beweis: Man geht aus von der Identität (λIC1)=ρ(λ)en, wobei en=(0,,0,1)Cn. i-malige Differentiation liefert

(λIC1)w0(i)(λ)=ρ(i)(λ)eniw0(i1)(λ)

Einsetzen von λ=μ, für i=0,1,,r1 ergibt mit ρ(r)(μ)=0 (algebraische Vielfachheit von μ), daß die r linear unabhängigen Vektoren wi Hauptvektoren zu μ von C1 sind.     ☐

Um nun eine gewisse Äquivalenz der Fehlerkonstanten zu zeigen, verfährt man wie nachstehend. Bei gewissen Einschränkungen an die Links- und Rechtseigenvektoren, kann man tatsächlich Gleichheit erzielen. Zumindestens Proportionalität ist stets gewährleistet.

7. Satz: Voraussetzungen: Es sei

ρ(μ)=Iμκ+Aκ1μκ1++A1μ+A0C×,

(=Stufenzahl), ferner sei C1Cκ×κ die erste Begleitmatrix zu ρ(μ), also

C1=(0I0000I0IA0A1Aκ1).

v und w seien beliebige aber feste Links- und Rechtseigenvektoren von ρ(μ) zu μ=1 und

vc:=v(A1+A2++I,A2++I,,I)Cκ,wc:=(II)wCκ,I=IC×.

γC sei gänzlich beliebig und γc=(0,,0,γ)Cκ, (γ,γc=Fehlervektoren).

Behauptungen: (1) vc und wc sind Links- und Rechtseigenvektoren von ρc(μ):=IμC1 zu μ=1.

(2) Es gilt

vγvρ(1)w=vcγcvcwc=vcγcvcρc(1)wc.

Beweis: zu (1): Man sieht schnell, daß tatsächlich vcρc(1)=0 und ρc(1)wc=0, mit

ρc(1)=IC1=(II000II0IA0A1I+Aκ1).

zu (2): Gezeigt wird, daß Zähler und Nenner jeweils gleich sind. Für die Zähler ist dies unmittelbar klar. Für die Nenner rechnet man leicht nach, daß

vcρc(1)wc=vcIκ×κwc=vcwc=vρ(1)w.

    ☐

Die hier durchgeführten Überlegungen gelten sinngemäß in beliebigen, nicht notwendigerweise kommutativen Ringen. Hierzu ersetzt man C durch R. Der obige Satz rechtfertigt in gewisser Hinsicht

8. Definition: Die Linearform γvγ/vρ(1)w heißt Henrici-Linearform, mit v, w wie oben. Insbesondere für einen Fehlervektor (spezieller Vektor des C) heißt der Wert dann Henrici-Fehlerkonstante.

Selbstverständlich wird nicht behauptet, daß vγ/vρ(1)w=vcγ/vcρc(1)wc für beliebige Links- und Rechtseigenvektoren v, w, bzw. vc, wc. Dies erkennt man unmittelbar, falls man einen der Vektoren beliebig streckt oder staucht. Für den Zähler waren gewisse Unterraumeigenschaften von γc, nämlich γc=(0,,0,) bedeutsam.

Die weiteren Verallgemeinerungen führen dann direkt zu den Begriffen der annullierten Dominanz und der Totalannullation. Um nun die Verbindung mit der klassischen Fehlerkonstante von Henrici weiter aufzuzeigen, sei auf den folgenden Sachverhalt hingewiesen.

Bei m-facher Wiederholung ein und desselben Verfahrens, multipliziert sich die oben angegebene Fehlerkonstante mit m. Dieses Ergebnis ergibt sich sofort, wenn man erkennt, daß

(1,,1)C1×m

Linkseigenvektor von ρ(1) ist. Dann steht im Zähler (1,,1)γ und da jede Komponente von γ natürlich gleich ist, erhält man sofort das verlangte Resultat, wenn man noch weiß, daß der Nenner natürlich bei welcher Dimension auch immer, gleich bleibt. Auch hier gelten wieder, w.o. schon bemerkt, diese Ergebnisse in beliebigen Ringen, nicht notwendig kommutativ.