Mehrdimensionale Funktionen - Gleichungen mit mehreren Unbekannten

Definition

Wenn man Funktionen im zweidimensionalen Raum betrachtet, hat man einen Funktionswert (`y` bzw. `f(x)`), der von einer Variable (`x`) abhängt. Diese Beschränkung kann jedoch aufgelöst werden - dann ist die zu erklärende (oder abhängige) Variable in Abhängigkeit von mehreren erklärenden (oder unabhängigen) Variablen (`x_1,x_2,\ldots,x_n `) dargestellt. Die Funktion wird dann geschrieben als:

` y=f(x_1,x_2,\ldots,x_n)`

z.B.:` \ y=f(x_1,x_2)=2x_1+7x_2+3`


Der wichtigste mehrdimensionale Raum ist der dreidimensionale Raum, da der Mensch in diesem lebt und ihn sich somit vorstellen kann. Anstelle der Variablen ` y,\ x_1,\ x_2` wird dann häufig ` x,y,z ` genutzt, wobei ` z ` die zu erklärende Variable ist:

` z=f(x,y)` oder auch ` x_3=f(x_1,x_2)`

Im Koordinatensystem würde eine dreidimensionale Funktion beispielsweise wie folgt aussehen:

dreidimensionale_funktion_1

Die zu erklärende Variable ist also erneut auf der senkrechten Achse, während die unabhängigen Variablen in der waagerechten Ebene liegen.

Höhenlinien

Während Funktionen der Form `y=f(x)` meistens einfach in ein Koordinatensystem skizziert werden können, wird das bei Funktionen mit mehreren unabhängigen Variablen schon schwieriger. Dreidimensionale Funktionen können mit einem Trick jedoch auch in einem zweidimensionalen Koordinatensystem dargestellt werden. Dafür bedient man sich sogenannter Höhenlinien. Wie man Höhenlinien verendet, um dreidimensionale Funktionen darzustellen, kannst du nachlesen, indem du dem Link zum entsprechenden Artikel folgst.

Partielle Ableitung

Wie 2D-Funktionen haben auch mehrdimensionale Funktionen Steigungen, die durch Ableitungen beschrieben werden können. Dabei wird oft die Ableitung in Abhängigkeit von einer Variablen betrachtet, während die anderen Variablen konstant gehalten werden (beim Ableiten wie konstante Parameter behandeln).

Diese Ableitung nach einer Variablen nennt man dann partielle Ableitung. Wie dieser Vorgang für jede Variable aussieht, wird im Kapitel Partielle Ableitung ausführlich beschrieben. Wie diese für unterschiedlich viele unabhängige Variablen aussieht, siehst du im Artikel zur Hesse-Matrix.

Totales Differential

Neben der partiellen Ableitung kann man auch das totale Differential benutzen, um mehr über die Steigung einer mehrdimensionalen Funktion zu erfahren. Was das totale Differential aussagt und wie es gebildet wird, erfährst du im Kapitel Totales Differential.

Grenzrate der Substitution

Die Grenzrate der Substitution (GRS) ist ein Konstrukt, das in den Wirtschaftswissenschaften oft in der Mikroökonomie angewendet wird. Hier wird es benutzt, um zu beschreiben, in welchem Verhältnis der Besitzer eines Gutsbündels bereit ist, Einheiten von einem Gut aufzugeben, um Einheiten von einem anderen Gut zu erhalten. Dabei ist er indifferent zwischen seinem alten und diesem neuen Güterbündel.

Rein mathematisch stellt die GRS folgendes dar: Wenn `x` um 1 erhöht wird, um wieviel muss man `y` vermindern, um auf derselben Höhenline zu bleiben? Weitere Erklärungen zur GRS, ihre graphische Darstellung und mathematische Berechnung, sowie ein ausführliches Beispiel findest du im Kapitel zur Grenzrate der Substitution.

Partielle Elastiztät

Wie bei der zweidimensionalen Elastizität geht es auch bei der partiellen Elastizität im mehrdimensionalen Raum um die Veränderung der abhängigen Variable bei kleiner Änderung einer unabhängigen Variablen.

Im zweidimensionalen Fall lautet die Formel zur Berechnung der Elastizität:

`\varepsilon_(y,x)=\frac(dy/dx)(y/x)=\frac(df(x))(dx)\cdot\frac(x)(f(x))`

Allgemein ändert sich die Formel im mehrdimensionalen Fall dann zu:

`\varepsilon_(f,x_i)=\frac(\partial f(x_1,\ldots x_i,\ldots,x_n))(\partial x_i)\cdot\frac(x_i)(f(x_1,\ldots,x_i,\ldots,x_n))`

Die Interpretation der Elastizität und die Klassifizierung (elastisch/unelastisch) ändert sich gegenüber dem zweidimensionalen Fall nicht - mehr darüber kannst du im Artikel zur Elastizität nachlesen.

Homogenität und Skalenerträge

Wenn die Homogenität einer Funktion untersucht wird, wird folgende Frage beleuchtet: Wenn man alle unabhängigen Variablen der Funktion um einen Faktor ändert, um welchen Faktor ändert sich dann die abhängige Variable, also der Funktionswert?

In den Wirtschaftswissenschaften kommt die Homogenität vor allem in der Mikroökonomie zur Anwendung. Hier stellt sich die Frage, wie sich der Output der Produktion eines Unternehmens ändert, wenn die Inputfaktoren um einen bestimmten Faktor verändert werden. Dafür wird die Produktionsfunktion untersucht. Je nachdem, ob man hier eine proportionale, überproportionale oder unterproportionale Änderung findet, redet man von konstanten, steigenden oder fallenden Skalenerträgen.

Wie die Homogenität einer Funktion mathematisch untersucht wird, wird anhand einer Anleitung und eines ausführlichen Beispiels aus der Mikroökonomie im Kapitel Homogenität und Skalenerträge dargestellt.

Extrempunkte

Die Berechnung lokaler Hoch- und Tiefpunkte mehrdimensionaler Funktionen ähnelt der Berechnung lokaler Extrema im zweidimensionalen Raum. Sowohl aus Perspektive der ` x `-Achse als auch aus Perspektive der ` y `-Achse beträgt die Steigung im Extrempunkt Null:

extrema

Aus dieser Feststellung ergibt sich die Bedingung erster Ordnung. Im zweidimensionalen Fall wurde die Ableitung nach ` x ` gleich Null gesetzt, im mehrdimensionalen Fall müssen alle partiellen Ableitungen erster Ordnung, also der Gradient, gleich Null sein:

Notwendige Bedingung: ` f_x^\ (x,y)=0\ \ `und` \ f_y^\ (x,y)=0`

Mithilfe der partiellen Ableitungen zweiter Ordnung, also aller Elemente der Hesse-Matrix, lassen sich dann die Extrempunkte klassifizieren. Dazu muss zunächst eine Hilfsfunktion aufgestellt werden, die die Determinante der Hesse-Matrix darstellt:

` D(x,y)=f_(x \ x)f_(yy)-(f_(xy))^2`

Zur Klassifizierung werden dann die berechneten Stellen aus der notwendigen Bedingung in ` f_(x \ x)(x,y)` und in ` D(x,y)` eingesetzt. Die berechneten Werte können dann mit der folgenden Tabelle verglichen werden, um zu bestimmen, ob man ein Maximum, ein Minimum oder einen Sattelpunkt gefunden hat:

tab4

Optimieren unter einer Nebenbedingung

Häufig werden Funktionen unter einer Nebenbedingung optimiert, wodurch komplexere Probleme gelöst werden können.

In den Wirtschaftswissenschaften wird dies häufig bei der Optimierung des Nutzens eines Konsumenten unter der Nebenbedingung seiner Budgetrestriktion angewendet: Ein Konsument möchte seinen Nutzen maximieren, hat aber gleichzeitig nur eine begrenzte Menge Geld, welches er für die Güter ausgeben kann.

Allgemein lässt sich das Optimierungsproblem schreiben als:

max / min` f(x,y)`
u.d.N. `g(x,y)=c `

Wobei die Funktion ` f(x,y)` optimiert werden soll und gleichzeitig die Nebenbedingung ` g(x,y)=c ` erfüllt sein muss. Zum Lösen dieses Optimierungsproblems gibt es zwei Ansätze, die im Folgenden erklärt werden.

Auflösen und Einsetzen

Der erste Ansatz zum Optimieren einer Funktion unter einer Nebenbedingung funktioniert durch Auflösen der Nebenbedingung und anschließendes Einsetzen in die Funktion selbst. Zunächst wird also mit der Nebenbedingung gearbeitet. Die Gleichung wird so umgeformt, dass das ` x ` oder das ` y ` isoliert steht:

` x=h(y)` oder ` y=i(x)`

Die dann entstehende Gleichung kann anschließend in die zu optimierende Funktion eingesetzt werden:

` f(x,y)=f(g(y),y) oder ``f(x,y)=f(x,\ i(x))`

Da die zu optimierende Funktion so nur noch von ` y ` bzw. nur noch von ` x ` abhängt, kann sie wie im zweidimensionalen Fall optimiert werden: Die entsprechende Ableitung wird gleich Null gesetzt und aufgelöst. Durch diese Optimierung erhält man dann den optimalen Wert ` y^\ast ` bzw ` x^\ast `. Setzt man diesen anschließend in die umgeformte Nebenbedingung ein, erhält man auch den optimalen Wert der jeweils anderen Variablen:

` x^\ast=h(y^\ast) \ bzw. y^\ast=i(x^\ast)`

Das Optimierungsproblem ist dann gelöst, es wurden für beide Variablen die optimalen Stellen gefunden. Ist in der Aufgabenstellung auch nach dem optimalen Wert, bzw. Nutzen gefragt, müssen ` x^\ast ` und ` y^\ast ` noch in die Funktion ` f(x,y)` eingesetzt werden.

Lagrange

Der Lagrange-Ansatz ist ein allgemein geltender Ansatz zum Lösen von Optimierungsproblemen unter Nebenbedingungen. Er besteht aus drei Schritten, die im Kapitel Lagrange weiter ausgeführt werden.



zurück zur Übersicht