Home | english  |  Impressum  |  Datenschutz  |  Sitemap  |  Intranet  |  KIT
Arbeitsgruppe 4: Inverse Probleme

Sekretariat
Kollegiengebäude Mathematik (20.30)
Zimmer 1.041

Adresse
Institut für Angewandte und Numerische Mathematik
Englerstr. 2
D-76131 Karlsruhe

Email: agip-sekretariat@ianm.kit.edu

Öffnungszeiten:
Montag - Freitag 11:00-12:00 und 13:00-15:00 Uhr

Tel.: 0721 608 42051

Fax.:

FAQ zur HM2

Häufig gestellte Fragen zu HM2

Hier finden Sie Antworten auf Fragen, die in Sprechstunden zur Vorlesung Höhere Mathematik II für die Fachrichtungen BIW, CIW, Mach, MaGe, VT besonders aufgefallen sind. Die Antworten sind knapp gehalten und versuchen nur die besonderen Knackpunkte hervorzuheben- allgemein sollte man sich zu den Themen auch die Lösungen zu den Übungsblättern und die jeweiligen Abschnitte im Skript ansehen. Bitte beachten Sie auch die Maple Worksheets, die Ihnen begleitend zu den Vorlesungen HM I, II und III zur Verfügung stehen. Bei Fragen zu dieser Liste wenden Sie sich an Ihre Übungsleiter.

  1. Matrizenprodukt
  2. Basistransformationen
  3. Potenzreihenansatz
  4. Lineare Differentialgleichungen
  5. Anwendung der Kettenregel
  6. Wie kann man sich eigentlich eine Richtungsableitung vorstellen?

Matrizenprodukt

Wie berechne ich das Produkt zweier Matrizen?

Um zwei Matrizen A,B multiplizieren zu können, muss die Anzahl der Spalten der ersten Matrix mit der Anzahl der Zeilen der zweiten Matrix übereinstimmen. Also A\in\mathbb K^{m\times p} und B\in\mathbb K^{p\times n} für m,p,n\in\mathbb N.
Zur Verdeutlichung der Rechenregel geben wir hier ein explizites Beispiel an:
A=\begin{pmatrix}1&2&3\\4&5&6\\7&8&9\\10&11&12\end{pmatrix}\in\mathbb R^{4\times 3} und B=\begin{pmatrix}13&14\\15&16\\17&18\end{pmatrix}\in\mathbb R^{3\times 2}. Dann ist das Produkt der beiden Matrizen:

$AB=\begin{pmatrix}
(1\cdot13+2\cdot15+3\cdot17)&(1\cdot14+2\cdot16+3\cdot18)\\
(4\cdot13+5\cdot15+6\cdot17)&(4\cdot14+5\cdot16+6\cdot18)\\
(7\cdot13+8\cdot15+9\cdot17)&(7\cdot14+8\cdot16+9\cdot18)\\
(10\cdot13+11\cdot15+12\cdot17)&(10\cdot14+11\cdot16+12\cdot18)\\
\end{pmatrix}\in\mathbb R^{4\times2}$

Für das Element c_{mn} in der m-ten Zeile und n-ten Spalte des Produktes, muss man also das Skalarprodukt der m-ten Zeile von A mit der n-ten Spalte von B berechnen.

Basistransformationen

Wie stelle ich die Basistransformationsmatrix auf?

Die Darstellungen von Vektoren und Matrizen ist grundsätzlich von der gewählten Basis abhängig. Wurden keine weiteren Angaben gemacht, so setzt man die Standardbasis, z.B. im \mathbb{R}^3 die Vektoren e^{(1)}, e^{(2)} und e^{(3)} voraus:

$\left(\begin{array}{c}\alpha_1\\\alpha_2\\\alpha_3\end{array}\right):=\alpha_1 e^{(1)}+\alpha_2 e^{(2)}+\alpha_3 e^{(3)} \qquad \left(\begin{array}{c}1\\2\\3\end{array}\right)=e^{(1)}+2e^{(2)}+3e^{(3)}$

Wählt man eine andere Basis B, z.B. b^{(1)}=(1,0,1)^\top, b^{(2)}=(2,0,1)^\top und b^{(3)}=(-2,1,2)^\top (diese Vektoren sind bezüglich der Standardbasis definiert), so bedeutet

$\left(\begin{array}{c}\beta_1\\\beta_2\\\beta_3\end{array}\right)_B:=\beta_1 e^{(1)}+\beta_2 e^{(2)}+\beta_3 e^{(3)} \qquad \left(\begin{array}{c}4\\5\\6\end{array}\right)_B=4b^{(1)}+5b^{(2)}+6b^{(3)}\,.$

Setzt man nun für die Vektoren b^{(i)} deren Darstellungen zur Standardbasis ein, so erhält man die Darstellung eines Vektors zur Standardbasis:

$\left(\begin{array}{c}4\\5\\6\end{array}\right)_B=4b^{(1)}+5b^{(2)}+6b^{(3)}= 4\left(\begin{array}{c}1\\0\\1\end{array}\right)+ 5\left(\begin{array}{c}2\\0\\1\end{array}\right)+ 6\left(\begin{array}{r}-2\\1\\2\end{array}\right)= \left(\begin{array}{r}2\\6\\21\end{array}\right)$

Komplizierter ist es hier, einen Vektor zur Standardbasis in einen Vektor zur Basis B umzurechnen, dazu muss man ein LGS lösen, und erhält z.B.

$\left(\begin{array}{c}1\\2\\3\end{array}\right)=e^{(1)}+2e^{(2)}+3e^{(3)}=\ldots=-7b^{(1)}+6b^{(2)}+2b^{(3)}= \left(\begin{array}{r}-7\\6\\2\end{array}\right)_B\,.$

Diese Umrechnungen sind lineare Abbildungen und können deshalb mit Basiswechselmatrizen beschrieben werden. Eine Basiswechselmatrix T zur Transformation einer Basisdarstellung bzgl. B zur Darstellung bzgl. Standardbasis erfüllt also

$T\left(\begin{array}{c}4\\5\\6\end{array}\right)=\left(\begin{array}{r}2\\6\\21\end{array}\right)$

und man hat mit der Inversen T^{-1} auch gleich die Transformation von der Standardbasis zur Darstellung bzgl. B, diese würde hier also

$T^{-1}\left(\begin{array}{c}1\\2\\3\end{array}\right)=\left(\begin{array}{r}-7\\6\\2\end{array}\right)$

erfüllen. Man kann sich überlegen, wie man T geschickt aufstellen kann: Da

$\underbrace{\left(\begin{array}{c}1\\0\\0\end{array}\right)_B}_{=b^{(1)}}=\left(\begin{array}{c}1\\0\\1\end{array}\right)\,,\ \underbrace{\left(\begin{array}{c}0\\1\\0\end{array}\right)_B}_{=b^{(2)}}=\left(\begin{array}{c}2\\0\\1\end{array}\right)\,,\ \underbrace{\left(\begin{array}{c}0\\0\\1\end{array}\right)_B}_{=b^{(3)}}=\left(\begin{array}{r}-2\\1\\2\end{array}\right)$

und die Bilder dieser Vektoren gerade die Spalten der Matrix T sind, erhalten wir die folgende Transformationsmatrix zur Transformation von Darstellungen bzgl. der Basis B zu Darstellungen bzgl. der Standardbasis (und daneben gleich auch die Inverse):

$T=\left(\begin{array}{rrr}1&2&-2\\0&0&1\\1&1&2\end{array}\right)\qquad T^{-1}=\left(\begin{array}{rrr}-1&-6&2\\1&4&-1\\0&1&0\end{array}\right)$

Achtung! Die Matrix T ist eine Abbildung von Darstellungen bzgl. B zu Darstellungen bzgl. der Standardbasis, aber es gilt Te^{(1)}=b^{(1)}! Das erscheint zunächst überraschend, aber geht man die Überlegungen oben durch, erhält man genau dieses Ergebnis.

Die Hauptanwendung solcher Basiswechselmatrizen ist die Transformation von Abbildungsmatrizen bzgl. einer Basis zu einer anderen Basis, oft einer Basis aus Eigenvektoren. Ist z.B. eine Abbildung durch die folgende Matrix bzgl. der Standardbasis gegeben

$A=\left(\begin{array}{rrr}3&4&-2\\0&3&0\\1&8&0\end{array}\right)\,,$

so ist A(1,2,3)^\top=(5,6,17)^\top, was ist aber das Bild von (4,5,6)^\top_B zur Basis B? Dazu müssen wir den Vektor erst zur Standardbasis bestimmen, wir erhielten (4,5,6)^\top_B=(2,6,21)^\top. Diesen Vektor können wir an A anmultiplizieren und erhalten A(2,6,21)^\top=(-12,18,50)^\top und letztlich wandeln wir das Ergebnis mit T^{-1} wieder in eine Darstellung bzgl. B um und erhalten (4,10,18)^\top.

Alternativ kann man auch die Matrix A in eine Matrix \tilde{A} bzgl. der Basis B umrechnen: Nehmen wir die vorangegangenen Schritte zusammen, so erhalten wir

$\tilde{A}=T^{-1}AT=\left(\begin{array}{rrr}1&0&0\\0&2&0\\0&0&3\end{array}\right)$

und können jetzt viel schneller das Bild von (4,5,6)^\top_B bestimmen, denn \tilde{A}(4,5,6)^\top=(4,10,18)^\top. Generell nehmen Abbildungsmatrizen bzgl. einer Basis von Eigenvektoren (wie hier) Diagonalform an.

Alles klar? Beim Selbsttest 5 - Determinanten und Basiswechsel gibt es eine Aufgabe zum Ausprobieren!

Potenzreihenansatz

Wie bestimmt man die allgemeine Lösung mit Hilfe des Potenzreihenansatzes?

Wir betrachten hier den Fall einer Differentialgleichung 2.Ordnung:

$ u''(x)+\alpha u'(x)+\beta u(x)=0. $

Diese hat zwei linear unabhängige Lösungen  v_1,v_2 . Wir machen den Potenzreihenansatz

$ v_1(x)=\sum_{n=0}^\infty a_n x^n\textnormal{ und }v_2(x)=\sum_{n=0}^\infty b_nx^n$

Zur Berechnung einer Lösung muss man Anfangswerte in der Form u(0),u'(0) vorgeben. Die beiden einfachsten Möglichkeiten sind:

$v_1(0)=1, v_1'(0)=0\textnormal{ und }v_2(0)=0, v_2'(0)=1.$

Das entspricht der Wahl der Einheitsvektoren bei der Bestimmung des kanonischen Fundamentalsystems. Betrachten wir nun die Potenzreihenentwicklung von v_1, so sehen wir

$v_1(x)=a_0+a_1x+a_2x^2+a_3x^3\ldots\qquad\textnormal{ und }\qquad v_1'(x)=a_1+2a_2x+3a_3x^2+\ldots,$

also a_0=v_1(0)=1 und a_1=v_1'(0)=0. Analog erhalten wir für v_2: \qquad b_0=0 und b_1=1.


Lineare Differentialgleichungen

Wann ist eine Differentialgleichung linear?

Die allgemeine Form einer linearen Differentialgleichung ist

$\sum_{k=0}^n a_k(x)u^{(k)}(x)=g(x).$

(Hierbei ist u^{(0)}=u.) Die gesuchte Funktion u und ihre Ableitungen treten also nur linear auf (also insbesondere nicht quadratrisch). Die Koeffizienten a_k(x) können von x abhängen und müssen nicht linear in x sein. Beispielsweise kann x durchaus quadratisch vorkommen.

Beispiel einer linearen Diffentialgleichung: u''(x)+x^2 u'(x)+2 u(x)=0.
Beispiel einer nicht-linearen Diffentialgleichung: Bernoullische Dgl. u'(x)=f(x)u(x)+g(x)\big( u(x)\big)^\alpha,\alpha\neq 1.

Wichtig: Nur wenn eine lineare Differentialgleichung vorliegt, lässt sich die lineare Theorie anwenden, lässt sich also eine Lösung als Summe der Lösung der homogenen Differentialgleichung und einer speziellen Lösung berechnen.

Alles klar? Beim test01 können Sie bei der ersten und dritten Aufgabe Ihr Wissen auf die Probe stellen.

Eine Anwendung der Kettenregel

Wie benutzt man die Kettenregel, um die Funktion  g(t) = f(\sin(t), \cos(t)), \ f: \mathbb{R}^2 \to \mathbb{R}, abzuleiten?

Die Kettenregel sagt aus, dass die Ableitung einer Funktion  g(t) , die durch  g(t) = f(\psi(t)) definiert ist, folgendermaßen berechnet werden kann: man leitet zunächst  f ab, setzt  \psi(t) in diese Ableitung ein, und (Matrix-)multipliziert dann noch mit der Ableitung von  \psi :

$ g'(t) = f'(\psi(t)) \psi'(t) . $

Wenn wir das auf die Funktion  g(t) = f(\sin(t), \cos(t)) anwenden wollen, müssen wir zunächst ein  \psi finden, so dass

$ g(t) = f(\psi(t)) $

gilt. Offensichtlich muß \psi von \mathbb{R} nach \mathbb{R}^2 abbilden, damit  f(\psi(t)) überhaupt Sinn macht. \psi(t) ist also ein Vektor mit zwei Komponenten. Wegen  g(t) = f(\sin(t), \cos(t)) muß die erste Komponente gleich \sin(t) sein, und die zweite Komponente von \psi(t) muß \cos(t) sein:

$\psi(t) = \left( \begin{array}{c} \sin(t) \\ \cos(t) \end{array} \right) . $

Dann (und genau dann) gilt nämlich  g(t) = f(\psi(t)) , und wir können die Kettenregel ausrechnen um  g'(t) auszurechnen:  g'(t) = f'(\psi(t)) \psi'(t) .

Das letzte Produkt ist eine Matrixmultiplikation:  f'(\psi(t)) ist eine 1\times 2-Matrix und  \psi'(t) ist eine 2\times 1-Matrix, das Produkt ist also wieder eine Zahl (ein Skalar). Das muss auch so sein, denn g ist eine skalare Funktion. Alternativ kann man natürlich auch schreiben  g'(t) = \nabla f(\psi(t))^\top \cdot\psi'(t) .

Noch ein Beispiel zur Verdeutlichung: Wenn f(x_1, x_2) = x_1 + x_1 x_2 , dann ist f'(x_1, x_2) = (1+x_2, x_1) und für g(t) = f(\sin(t) , \cos(t)) ergibt sich mit \psi(t) = \left( \sin(t) , \cos(t) \right)^\top

$ g'(t) = f'(\sin(t) , \cos(t)) \psi'(t) = (1+\cos(t), \sin(t)) (\cos(t), - \sin(t))^\top = \cos(t) + \cos^2(t) - \sin^2(t). $

Natürlich geht das alles analog, wenn man die innere Funktion \psi(t) = \left( \sin(t) , \cos(t) \right)^\top durch andere steitig differenzierbare Funktionen von \mathbb{R} nach \mathbb{R}^2 ersetzt.


Die geometrische Interpretation der Richtungsableitung

Wie kann man sich eigentlich eine Richtungsableitung vorstellen?

Die Richtungsableitung einer Funktion, sagen wir mal, um es einfach zu machen, vom \mathbb{R}^2 nach \mathbb{R} in Richtung a \in \mathbb{R}^2, \ \| a\|_2 =1, ist definiert als

$\frac{\partial f}{\partial a} (x) = \lim_{h \to 0} \frac{f(x+ha)-f(x)}{h}.$

In der Vorlesung haben Sie gelernt, dass man diese Richtungsableitung einfach ausrechnen kann als

$ \frac{\partial f}{\partial a} (x) = a \cdot \nabla f.$

Wenn man sich den Graph der Funktion f als Fläche im \mathbb{R}^3 vorstellt (als "Gebirge"), dann gibt die Richtungsableitung am Punkt x in Richung a an, wie steil der Anstieg von f am Punkt x in Richtung a ist. Wenn man sich vorstellt, am Punkt x im Gebirge zu stehen und in Richtung a schaut, dann ist die Richtungsableitung \partial f / \partial a (x) ein Maß für die Steigung des Gebirges in Richtung a. Das hängt damit zusammen, dass die Richtungsableitung an einem Punkt a gerade die (skalare!) Ableitung der eindimensionalen Funktion g(t) = f(x+ta) ist (Warum? Kettenregel!). Übrigens ist die Richtungsableitung \partial f / \partial a (x) auch gerade die Steigung der Tangentialebene von f am Punkt x in Richtung a.