26. Randwertprobleme
Auf einem kompakten Intervall \( I:=[a,b]\subset\mathbb R \) mit den Intervallgrenzen \( -\infty\lt a\lt b\lt\infty \) wollen wir folgendes Randwertproblem betrachten \[ \widetilde y''+\widetilde p(x)\widetilde y'+\widetilde q(x)\widetilde y=\widetilde f(x)\quad\mbox{in}\ I,\quad \widetilde y(a)=\widetilde\eta_1\,,\ \widetilde y(b)=\widetilde\eta_2\,. \] Vermittels der Substitution \[ y=\widetilde ye^{\frac{1}{2}\int\widetilde p\,dx} \] überführt man zunächst diese Gleichung in die neue Form \[ y''+p(x)y=f(x) \] mit den Setzungen \[ p(x):=\frac{1}{4}\,\widetilde p(x)^2+\frac{1}{2}\,\widetilde p'(x)-\widetilde q(x),\quad f(x):=\widetilde f(x)e^{\frac{1}{2}\int\widetilde p\,dx}\,. \] Studieren wollen wir zunächst Randwertprobleme der Form \[ y''+p(x)y=f(x)\quad\mbox{in}\ I,\quad y(a)=\eta_1\,,\ y(b)=\eta_2\,. \]
Aufgabe 1: (Umformung der Differentialgleichung I)
Verifizieren Sie die Berechnungen aus diesem Paragraphen.
...
26.1.2 Der homogene Fall mit konstantem Koeffizienten
Es seien zunächst \( a=0 \) und \( b=\ell \) mit einem \( \ell\gt 0. \) Ferner sei \( p\gt 0 \) konstant. Dann betrachten wir das homogene Randwertproblem \[ y''+py=0\quad\mbox{in}\ [0,\ell],\quad y(0)=y(\ell)=0. \] Die allgemeine Lösung der Differentialgleichung lautet \[ y=C_1\sin\sqrt{p}\,x+C_2\cos\sqrt{p}\,x=C_1\sin\sqrt{p}\,x, \] wobei wir \( C_2=0 \) beachten wegen \[ 0=y(0)=C_2\cos 0=C_2\,. \] Um auch die zweite Randbedingung zu erfüllen, muss also richtig sein \[ C_1\sin\sqrt{p}\,\ell=0. \] Das kann \( C_1=0 \) und damit \( y\equiv 0 \) bedeuten. Ist jedoch \[ \sqrt{p}\,\ell=n\pi \quad\mbox{bzw.}\quad \sqrt{p}=\frac{n\pi}{\ell} \quad\mbox{mit einem}\ n\in\mathbb Z, \] so finden wir mit \[ y=C_1\sin\frac{n\pi x}{\ell}\quad\mbox{mit}\ C_1\not=0 \] eine nichttriviale Lösung des gestellten Randwertproblems.
Im nächsten Schritt betrachten wir das Randwertproblem \[ y''+\lambda py=0\quad\mbox{in}\ [0,\ell],\quad y(0)=y(\ell)=0, \] mit \( \lambda\gt 0. \) Wann besitzt dieses Eigenwertproblem nichttriviale Lösungen?
Als Lösungsgesamtheit der Differentialgleichung ermitteln wir \[ y=C_1\sin\sqrt{\lambda p}\,x+C_2\cos\sqrt{\lambda p}\,x=C_1\sin\sqrt{\lambda p}\,x \] mit \( C_2=0 \) wegen \( y(0)=0. \) Die Gleichung besitzt also dann und nur dann nichttriviale Lösungen, wenn \( \ell\sqrt{\lambda p}=n\pi, \) d.h. wenn der Parameter \( \lambda\gt 0 \) einen der folgenden Werte annimmt \[ \lambda_1=\frac{\pi^2}{\ell^2p}\,,\quad \lambda_2=\frac{4\pi^2}{\ell^2p}\,,\quad \lambda_3=\frac{9\pi^2}{\ell^2p} \] bzw. allgemein \[ \lambda=\frac{n^2\pi^2}{\ell^2p}\,,\quad n\in\mathbb Z. \] Diese Werte heißen Eigenwerte des Randwertproblems, und die zu den Eigenwerten gehörigen Lösungen \[ y_n=C_1\sin\sqrt{\lambda p}\,x=C_1\sin\frac{n\pi x}{\ell} \] heißen Eigenfunktionen. Die Integrationskonstante \( C_1 \) bleibt bislang unbestimmt.
1. | Formulieren Sie das eingangs beschriebene Randwertproblem. |
2. | In welche Form haben wir das Randwertproblem überführt? |
3. | Wie löst man das homogene Problem mit einer konstanten Koeffizientenfunktion? |
4. | Welches Eigenwertproblem haben wir aus diesem homogenen Problem erhalten? |
5. | Wie löst man dieses Eigenwertproblem? |
26.2.1 Eindeutige Lösbarkeit linearer Probleme
Wir betrachten nun das inhomogene Randwertproblem \[ L[y]:=y''+f(x)y'+g(x)y=h(x)\quad\mbox{in}\ [a,b],\quad y(a)=\eta_1,\ y(b)=\eta_2 \tag{I} \] mit einer stetigen rechten Seite \( h\in C^0([a,b],\mathbb R), \) stetigen Koeffizientenfunktionen \( f,g\in C^0([a,b],\mathbb R) \) und vorgegebenen Randdaten \( \eta_1,\eta_2\in\mathbb R \) sowie das zugehörige homogene Randwertproblem \[ y''+f(x)y'+g(x)y=0\quad\mbox{in}\ [a,b],\quad y(a)=0,\ y(b)=0. \tag{H} \]
Satz: Es sei \( y\in C^2([a,b],\mathbb R) \) eine Lösung des inhomogenen Problems (I). Dann gelten die folgenden Aussagen:
(i) | Besitzt das homogene Probleme (H) nur die triviale Lösung \( y\equiv 0, \) so ist das inhomogene Problem (I) eindeutig lösbar. |
(ii) | Besitzt das inhomogene Probleme (I) genau eine Lösung, so besitzt das homogene Problem (H) nur die triviale Lösung \( y\equiv 0. \) |
(i) | Angenommen, (H) besitzt nur die triviale Lösung. Seien ferner \( y_1(x) \) und \( y_2(x) \) zwei Lösungen von (I). Wegen der Linearität der Differentialgleichung genügt dann die Differenz |
\[ \widetilde y(x):=y_2(x)-y_1(x),\quad x\in[a,b], \]
der Aufgabe |
\[ L[y_2-y_2]=L[y_2]-L[y_1]=0\quad\mbox{in}\ [a,b],\quad \widetilde y(a)=\widetilde y(b)=0, \]
ist also Lösung von (H). Nach Voraussetzung folgt \( y_2-y_1\equiv 0 \) bzw. \( y_1=y_2. \) Das ist die behauptete Eindeutigkeit. | |
(ii) | Angenommen, (I) besitzt genau eine Lösung, etwa \( y_1(x). \) Sei ferner \( y_2(x) \) eine Lösung von (H). Dann genügt die Summe |
\[ \widetilde y(x):=y_1(x)+y_2(x),\quad x\in[a,b], \]
der Aufgabe |
\[ L[y_1+y_2]=L[y_1]+L[y_2]=L[y_1]=h\quad\mbox{in}\ [a,b],\quad \widetilde y(a)=y_1(a),\ \widetilde y(b)=y_1(b), \]
ist also ebenfalls Lösung von (I). Nach Voraussetzung muss aber sein \( y_1+y_2=y_1 \) bzw. \( y_2\equiv 0. \) Das ist die zweite Behauptung. |
Damit ist alles gezeigt.\( \qquad\Box \)
Wir betrachten nun das inhomogene Randwertproblem \[ y''+y=h(x)\quad\mbox{in}\ [0,\pi],\quad y(0)=\eta_1,\ y(\pi)=\eta_2 \] mit einer stetigen rechten Seite \( h\in C^0([a,b],\mathbb R) \) und vorgegebenen Randdaten \( \eta_1,\eta_2\in\mathbb R. \) Das zugehörige homogene Randwertproblem lautet \[ y''+y=0\quad\mbox{in}\ [0,\pi],\quad y(a)=0,\ y(\pi)=0. \] Lösung des homogenen Problems. Aus obigen Betrachtungen wissen wir, dass \[ y_h(x)=c\cos x+d\sin x,\quad c,d\in\mathbb R, \] die homogene Differentialgleichung löst, und unter Berücksichtigung der homogenen Randdaten erhalten wir die unendlich vielen Lösungen \[ y_h(x)=d\sin x,\quad d\in\mathbb R, \] des homogenen Problems. Das homogene Problem besitzt also nicht nur die triviale Lösung \( y\equiv 0. \)
Lösung der inhomogenen Gleichung. Um die allgemeine Lösung der inhomogenen Gleichung zu bestimmen, führen wir eine Variation der Konstanten durch zur Ermittlung einer speziellen Lösung, genauer \[ y_s(x)=c_1(x)\cos x+c_2(x)\sin x \] mit zweimal stetig differenzierbaren Funktionen \( c_1(x) \) und \( c_2(x). \) Einsetzen in die Gleichung liefert die Bestimmungsgleichungen \[ c_1'(x)=-h(x)\sin x,\quad c_2'(x)=h(x)\cos x \] und daher nach Integration \[ c_1(x)=-\int\limits_0^xh(t)\sin t\,dt,\quad c_2(x)=\int\limits_0^xh(t)\cos t\,dt. \] Die allgemeine Lösung der inhomogenen Gleichung lautet daher \[ y(x)=c_1(x)\cos x+c_2(x)\sin x+c\cos x+d\sin x,\quad c,d\in\mathbb R. \]
Lösungsverhalten des inhomogenen Problems im Spezialfall. Um an dieser Stelle die gestellten Randdaten noch konkreter auswerten zu können, betrachten wir den Spezialfall \[ h(x)\equiv 1. \] Zu dieser rechten Seite bestimmen wir die Koeffizienten \( c,d\in\mathbb R \) zum inhomogenen Randwertproblem. Insbesondere sind \[ \begin{array}{l} \eta_1=y(0)=c_1(0)\cos 0+c_2(0)\sin 0+c\cos 0+d\sin 0=c, \\ \eta_2=y(\pi)=c_1(\pi)\cos\pi+c_2(\pi)\sin\pi+c\cos\pi+d\sin\pi=2-c \end{array} \] unter Beachtung von \[ c_1(0)=0,\quad c_2(0)=0,\quad c_1(\pi)=-\int\limits_0^\pi\sin t\,dt=-2,\quad c_2(\pi)=\int\limits_0^\pi\cos t\,dt=0. \] Im Fall \( \eta_1=0, \) \( \eta_2=1 \) gibt es kein \( c\in\mathbb R \) mit diesen Eigenschaften, d.h. es existiert keine Lösung des inhomogenen Problems, während wir für die Randdaten \( \eta_1=1, \) \( \eta_2=1 \) und damit \( c=1 \) die unendlich vielen Lösungen erhalten \[ c_1(x)\cos x+c_2(x)\sin x+\cos x+d\sin x=1+d\sin x,\quad d\in\mathbb R. \]
Aufgabe 1: (Bestimmung der Koeffizienten \( c_1 \) und \( c_2 \))
Verifizieren Sie die oben angegebenen Bestimmungsgleichungen \[ c_1'(x)=-h(x)\sin x,\quad c_2'(x)=h(x)\cos x \] und daraus \( c_1(x) \) und \( c_2(x) \) selbst.
Wir berechnen \[ \begin{array}{lll} y'\negthickspace & = & \negthickspace\displaystyle c_1'\cos x-c_1\sin x+c_2'\sin x+c_2\cos x \\ & = & \negthickspace\displaystyle -\,h\sin x\cos x-c_1\sin x+h\cos x\sin x+c_2\cos x \\ & = & \negthickspace\displaystyle -\,c_1\sin x+c_2\cos x \end{array} \] und damit \[ \begin{array}{lll} y''\negthickspace & = & \negthickspace\displaystyle -\,c_1'\sin x-c_1\cos x+c_2'\cos x-c_2\sin x \\ & = & \negthickspace\displaystyle h\sin^2x-c_1\cos x+h\cos^2x-c_2\sin x \\ & = & \negthickspace\displaystyle h-(c_1\cos x+c_2\sin x) \,=\,h-y, \end{array} \] also \( y''+y=h, \) wie behauptet.\( \qquad\Box \)
Aufgabe 2: (Lösungsverhalten des inhomogenen Problems)
Es sei \( h(x)\equiv 1. \) Verifizieren Sie:
(i) | Im Fall \( \eta_1=0, \) \( \eta_2=1 \) existiert keine Lösung des inhomogenen Problems. |
(ii) | Im Fall \( \eta_1=1, \) \( \eta_2=1 \) besitzt das inhomogene Problem die unendlich vielen Lösungen |
\[ 1+d\sin x,\quad d\in\mathbb R. \]
...
1. | Wie lautet die Fredholmsche Alternative aus diesem Abschnitt? |
2. | Studieren Sie die Berechnungen dieses Abschnitts. |
26.3.1 Ein Maximum-Minimum-Prinzip
In diesem Paragraphen gehen wir nach dem Lehrbuch von Walter, §26, Ergänzung I vor. Im Zentrum stehen nun Differentialgleichungen der Form \[ M[y]:=(fy')'+gy=h\quad\mbox{in}\ I,\quad y(a)=\eta_1,\ y(b)=\eta_2 \tag{\( * \)} \] auf einem kompakten Intervall \( I=[a,b] \) mit den Intervallgrenzen \( -\infty\lt a\lt b\lt\infty, \) Funktionen \( f\in C^1(I,\mathbb R) \) und \( g\in C^0(I,\mathbb R) \) und \( h(x) \) sowie Randdaten \( \eta_1,\eta_2\in\mathbb R. \) Durch die Substitution \[ f(x):=\exp\int\widetilde f(x)\,dx \] gehen diese hervor aus der allgemeinen Gleichung \[ y''+\widetilde f(x)y'+\widetilde g(x)y=\widetilde h\quad\mbox{in}\ I \] worin \( \widetilde f,\widetilde g,\widetilde h\in C^0([a,b],\mathbb R), \) und nachdem wir setzen \( g:=f\widetilde g \) und \( h:=f\widetilde h. \) Insbesondere bedeutet das \( f\in C^1([a,b],\mathbb R). \)
Ziel dieses Paragraphens ist ein Beweis des folgenden Maximum-Minimum-Prinzips.
Satz: Es seien \[ f(x)\gt 0\quad\mbox{und}\quad g(x)\le 0\quad\mbox{für alle}\ x\in\mathring I=(a,b). \] Ferner sei \( y\in C^2([a,b],\mathbb R). \) Dann gelten die folgenden Aussagen:
(i) | Ist \( M[y]\le 0, \) und besitzt \( y(x) \) in \( \mathring I \) ein inneres negatives Minimum, so gilt \( y\equiv\mbox{const.} \) |
(ii) | Ist \( M[y]\ge 0, \) und besitzt \( y(x) \) in \( \mathring I \) ein inneres positives Maximum, so gilt \( y\equiv\mbox{const.} \) |
Wir gehen nach dem Lehrbuch von Walter vor, zeigen nur die erste Aussage (i) und belassen einen Beweis der zweiten Aussage als Übung. Sei dazu \( y\not\equiv 0 \) vorausgesetzt.
1. | In einem Punkt \( x_{min}\in\mathring I \) nehme \( y(x) \) ein negatives Minimum an. Wegen der Stetigkeit von \( y(x) \) existiert ein offenes Intervall \( \Omega\subset\mathring I \) mit \( y\lt 0 \) in \( \Omega. \) Wegen \( gy\ge 0, \) da ja \( g\le 0, \) und wegen \( M[y]\le 0 \) in \( \Omega \) nach Voraussetzung folgt |
\[ (fy')'=M[y]-gy\le M[y]-0\le M[y]\le 0\quad\mbox{in}\ \Omega. \]
Diese Ungleichung wollen wir im nächsten Beweispunkt zum Widerspruch führen. | |
2. | Angenommen, es ist \( y\not\equiv\mbox{const.} \) Wegen \( x_{min}\in\mathring I \) ist \( y'(x_{min})=0. \) Ferner existiert ein \( x_1\in\Omega \) mit \( \Omega\subset\mathring I \) aus dem ersten Beweispunkt, so dass |
\[ y(x_1)\gt y(x_{min}) \quad\mbox{bzw.}\quad y(x_{min})-y(x_1)\lt 0 \]
erfüllt ist. Ohne Einschränkung nehmen wir \( x_1\lt x_{min} \) an. Nach dem Mittelwertsatz existiert dann ein \( x_2\in(x_1,x_{min}) \) mit der Eigenschaft |
\[ y'(x_2)=\frac{y(x_{min})-y(x_1)}{x_{min}-x_1}\lt 0. \]
Wegen \( f\gt 0 \) ist dann aber auch |
\[ (fy')(x_2)=f(x_2)y'(x_2)\lt 0=f(x_{min})y'(x_{min})=(fy')(x_{min}),\quad\mbox{da}\ y'(x_{min})=0, \]
und nach erneuter Anwendung des Mittelwertsatzes schließen wir auf die Existenz eines \( x_3\in(x_2,x_{min}) \) mit |
\[ (fy')'(x_3)=\frac{(fy')(x_{min})-(fy')(x_2)}{x_{min}-x_2})\gt 0. \]
Da aber nach Konstruktion \( x_3\in\Omega \) richtig ist, erhalten wir einen Widerspruch zu der Abschätzung \( (fy')'\le 0 \) in \( \Omega \) aus dem ersten Beweispunkt. Also muss \( y \) konstant sein. |
Damit ist alles gezeigt.\( \qquad\Box \)
Hieraus schließen wir unmittelbar auf folgendes Eindeutigkeitsresultat.
Folgerung: Es seien \( y,\widetilde y\in C^2([a,b],\mathbb R) \) Lösungen der Randwertprobleme \[ \begin{array}{l} M[y]=h,\quad y(a)=\eta_1,\ y(b)=\eta_2, \\ M[y]=h,\quad y(a)=\eta_1,\ y(b)=\eta_2 \end{array} \] zu einer rechten Seite \( h\in C^0([a,b],\mathbb R) \) und gemeinsamen Randdaten \( \eta_1,\eta_2\in\mathbb R. \) Außerdem seien, wie in den Voraussetzungen des Satzes, \[ f(x)\gt 0\quad\mbox{und}\quad g(x)\le 0\quad\mbox{für alle}\ x\in[a,b] \] erfüllt. Dann gilt \[ y\equiv\widetilde y\quad\mbox{in}\ [a,b]. \]
Betrachte nämlich die Differenz \( z:=\widetilde y-y, \) die das homogene Randwertproblem löst \[ M[z]=0,\quad z(a)=z(b)=0. \] Die Behauptung folgt aus dem vorigen Satz.\( \qquad\Box \)
Aufgabe 1: (Umformung der Differentialgleichung II)
Leiten Sie die spezielle Form \( (*) \) ab unter Benutzung der angegebenen Substitution \( f(x). \)
...
Aufgabe 2: (Zum Beweis des Maximum-Minimum-Prinzips)
Führen Sie den Beweis der Behauptung (ii) des Satzes aus.
...
26.3.2 Eine Abschätzung der Supremumsnorm
Es sei wieder \( I:=[a,b]. \) Für eine Funktion \( u\in C^0(I,\mathbb R) \) bezeichne \[ \|u\|_0:=\max_{x\in I}|u(x)| \] die Maximums- bzw. Supremumsnorm.
Satz: Es sei \( y\in C^2(I,\mathbb R) \) eine Lösung des Randwertproblems \[ M[y]=h\quad\mbox{in}\ I,\quad y(a)=\eta_1,\ y(b)=\eta_2 \] mit Funktionen \( f\in C^1(I,\mathbb R) \) und \( g,h\in C^0(I,\mathbb R), \) wobei gelten \[ f(x)\gt 0,\quad g(x)\le 0 \quad\mbox{für alle}\ x\in[a,b]. \] Ferner seien Konstanten \( c_1,c_2\in(0,\infty) \) wie folgt gewählt \[ 0\lt c_1\le f(x),\quad |f'(x)|\le c_2 \quad\mbox{für alle}\ x\in[a,b]. \] Dann gilt \[ \|y\|_0\le 3\max_{x\in\{a,b\}}|y(x)|+\frac{e^{c_3(b-a)}}{c_3e^{c_3a}}\,\|h\|_0\,,\quad c_3:=\frac{1+c_2}{c_1}\,, \] bzw. in kompakter Form \[ \|y\|_0\le 3\max\{y(a),y(b)\}+C(c_1,c_2,a,b-a)\|h\|_0 \] mit einer Konstante \( C(c_1,c_2,a,b-a)\in(0,\infty). \)
Wir gehen in mehreren Schritten vor.
1. | Wir betrachten die nichtnegative Funktion |
\[ z(x):=\max_{x\in\{a,b\}}|y(x)|+\frac{\|h\|_0}{c_3e^{c_3a}}\,(e^{c_3b}-e^{c_3x}),\quad x\in I, \]
worin \( c_3\gt 0 \) so gewählt ist, dass \( c_3c_1-c_2=1 \) bzw. \( c_3=\frac{1+c_2}{c_1} \) und damit |
\[ f'(x)+c_3f(x)\ge-c_2+c_3c_1=1. \]
Es folgt dann nämlich für \( x\le a \) |
\[ \big[f\cdot(e^{c_3x})'\big]' =c_3(fe^{c_3x})' =c_3(f'+c_3f)e^{c_3x} \ge c_3e^{c_3x} \ge c_3e^{c_3a}\,. \]
2. | Wegen \( g\le 0 \) und damit \( gz\le 0 \) erhalten wir also |
\[ M[z] =(fz')'+gz =-\,\frac{\|h\|_0}{c_3e^{c_3a}}\,\big[f\cdot(e^{c_3x})'\big]'+gz \le-\,\frac{\|f\|_0}{c_3e^{c_3a}}\,c_3e^{c_3a}+gz \le-\|h\|_0\,. \]
Das bedeutet |
\[ M[z-y] =M[z]-M[y] =M[z]-h \le-\|h\|_0+\|h\|_0 =0. \]
Nach obigem Maximum-Minimum-Prinzip besitzt also \( z-y \) kein inneres lokales Minimum, solange nur \( z-y \) nicht konstant ist. Da aber |
\[ z(x)-y(x)\ge 0\quad\mbox{für}\ x\in\{a,b\} \]
nach Definition von \( z(x) \) ebenfalls richtig ist, folgt |
\[ z(x)-y(x)\ge 0\quad\mbox{in}\ I,\quad\mbox{falls}\ z-y\not\equiv\mbox{const.} \]
3. | Die Funktion \( \widetilde z:=-z \) genügt entsprechend |
\[ M[\widetilde z]\ge\|h\|_0 \quad\mbox{und somit}\quad M[\widetilde z-y]\ge 0. \]
Nach obigem Maximum-Minimum-Prinzip besitzt daher \( \widetilde z-y \) kein inneres lokales Maximum, solange nur \( \widetilde z-y \) nicht konstant ist. Wegen |
\[ \widetilde z(x)-y(y)\le 0\quad\mbox{für}\ x\in\{a,b\} \]
erhalten wir |
\[ \widetilde z(x)-y(x)\le 0\quad\mbox{in}\ I,\quad\mbox{falls}\ \widetilde z-y\not\equiv\mbox{const.} \]
4. | Sind nun \( z-y\not\equiv\mbox{const}\) und \( \widetilde z-y\not\equiv\mbox{const}, \) so erhalten wir also einmal \( y\le z \) in \( I \) bzw. |
\[ y(x) \le\max_{x\in\{a,b\}}|y(x)|+\frac{\|h\|_0}{c_3e^{c_3a}}\,(e^{c_3b}-e^{c_3x}) \le\max_{x\in\{a,b\}}|y(x)|+\frac{\|h\|_0}{c_3e^{c_3a}}\,(e^{c_3b}-e^{c_3a}) \]
und andererseits \( \widetilde z\le y \) mit \( \widetilde z=-z \) bzw. |
\[ -\max_{x\in\{a,b\}}|y(x)|-\frac{\|h\|_0}{c_3e^{c_3a}}\,(e^{c_3b}-e^{c_3a}) \le-\max_{x\in\{a,b\}}|y(x)|-\frac{\|h\|_0}{c_3e^{c_3a}}\,(e^{c_3b}-e^{c_3x}) \le y(x). \]
Das zeigt also die Behauptung in diesem Fall. | |
5. | Sei nun \( z-y=C \) mit einem \( C\in\mathbb R. \) Unter Beachtung der Randbedingung |
\[ C=z(b)-y(b)=z(b)-\eta_2 \]
erhalten wir wegen \( z(b)=\max\{y(a),y(b)\} \) |
\[ |C|\le z(b)+|\eta_2|\le 2\max_{x\in\{a,b\}}|y(x)|. \]
Die Behauptung folgt nun aus \( y=z-C \) und damit \( |y|\le|z|+|C|. \) Auf die gleiche Art und Weise behandelt man den Fall \( \widetilde z-y=\widetilde C \) mit einem \( \widetilde C\in\mathbb R. \) |
Damit ist alles gezeigt.\( \qquad\Box \)
26.3.3 Eine Stabilitätsungleichung
Aus der vorigen Supremumsabschätzung erhalten wir unmittelbar die nachstehende Stabilitätsungleichung.
Satz: Es seien \( y,\widetilde y\in C^2(I,\mathbb R) \) zwei Lösungen der Randwertprobleme \[ \begin{array}{l} M[y]=h\quad\mbox{in}\ I,\quad y(a)=\eta_1,\ y(b)=\eta_2\,, \\ M[\widetilde y]=\widetilde h\quad\mbox{in}\ I,\quad \widetilde y(a)=\widetilde\eta_1,\ \widetilde y(b)=\widetilde\eta_2 \end{array} \] mit Funktionen \( f\in C^1(I,\mathbb R) \) und \( g,h,\widetilde h\in C^0(I,\mathbb R) \) sowie Randdaten \( \eta_1,\eta_2,\widetilde\eta_1,\widetilde\eta_2\in\mathbb R, \) wobei gelten \[ f(x)\gt 0,\quad g(x)\le 0 \quad\mbox{für alle}\ x\in[a,b]. \] Ferner existieren Konstanten \( c_1,c_2\in(0,\infty) \) mit \[ 0\lt c_1\le f(x),\quad |f'(x)|\le c_2 \quad\mbox{für alle}\ x\in[a,b]. \] Dann gilt \[ \|y-\widetilde y\|_0\le 3\max_{x\in\{a,b\}}|y(x)-\widetilde y(x)|+\frac{e^{c_3(b-a)}}{c_3e^{c_3a}}\,\|h-\widetilde h\|_0\,,\quad c_3:=\frac{1+c_2}{c_1}\,. \]
Aufgrund der Linearität des Operators \( M \) genügt nämlich die Differenz \( y-\widetilde y \) dem Randwertproblem \[ M[y-\widetilde y]=h-\widetilde h\quad\mbox{in}\ I,\quad y(a)-\widetilde y(a)=\eta_1-\widetilde\eta_1,\ y(b)-\widetilde y(b)=\eta_2-\widetilde\eta_2\,. \] Die Behauptung folgt aus obiger Supremumsabschätzung.\(\qquad\Box \)
Aufgabe 1: (Konsequenzen der Stabilitätsungleichung)
Welche Konsequenzen können Sie aus der Stabilitätsungleichung ziehen? Diskutieren Sie.
...