Ökonometrie
befaßt sich mit quantifizierbaren Problemen der Ökonomie und stellt eine Synthese aus ökonomischer Theorie und ihren Methoden (Methodologie), Wirtschaftsstatistik und statistischer Schätz-und Testtheorie dar. Ziel der Ökonometrie ist es im Vergleich zur Wirtschaftstheorie, nicht nur qualitative Aussagen über das Zusammenwirken von ökonomischen Variablen, d.h. über die Wirkungsrichtung zu treffen; vielmehr soll auch das Ausmass des Einflusses einzelner Größen auf andere quantifiziert werden. Die numerische Schätzung der Parameter von funktionalen Zusammenhängen zwischen ökonomischen Größen auf Basis von Beobachtungsdaten dient v.a. der Verfeinerung bzw. Absicherung oder auch Verwerfung ökonomischer Theorien. Genaugenommen läßt sich aber jeweils nur prüfen, ob ein Beobachtungsbefund verträglich ist oder nicht mit einem aus der ökonomischen Theorie abgeleiteten, für ökonometrische Schätzungen operationalisierten Ansatz. Dabei ist die Verträglichkeit mit mehreren verschiedenen Erklärungsansätzen nicht auszuschließen. Anwendung finden die geschätzten ökonometrischen Beziehungen bei der Prognose über die Entwicklung einzelner exogener Variablen und bei der Vorherbestimmung von Reaktionen auf wirtschaftspolitische Maßnahmen (Diagnose und Prognose). Die Vorgehensweise der Ökonometrie läßt sich in verschiedene Schritte einteilen: Spezifikation des Modells, Auswahl bzw. Erhebung geeigneter Daten für die gewählten Variablen, Schätzung der Parame- ter sowie deren Überprüfung bezüglich der Plausibilität und Güte, inhaltliche Interpretation und Auswertung der Ergebnisse. a) Der erste Schritt konzentriert sich, ausgehend von der ökonomischen - Analyse, auf die Wahl der funktionalen Beziehungen, die Zahl der Modellgleichungen, die Einteilung in abhängige und unabhängige Variablen innerhalb des Modells, die Bestimmung von Lags bei den Variablen, die Größenordnung bzw. Restriktionen der zu schätzenden Parameter, auf Überlegungen hinsichtlich der Eigenschaften der nicht explizit aufgeführten, sondern zu einer latenten Variablen zusammengefaßten Einflußgröße. Schließlich ist hier noch festzustellen, ob für die Parameter eine Identifikation möglich ist oder nicht. b) Beim zweiten Schritt muss darauf geachtet werden, dass die erhobenen Daten den von der Theorie her intendierten Variablen entsprechen bzw. ihnen möglichst nahekommen, dass eine ausreichende Zahl von Beobachtungsdaten vorhanden ist, dass die Beobachtungen keine bzw. nur unerhebliche Meßfehler enthalten. c) Für den dritten Schritt maßgeblich ist die Wahl der Schätzmethode. Bei Eingleichungsmodellen wird i.allg. die gewöhnliche bzw. verallgemeinerte Methode der kleinsten Quadrate (OLS, GLS) oder die Maximum-Likelihood-Methode angewandt. Wenn entsprechende Eigenschaften des Modells vorliegen, liefern die genannten Methoden beste, lineare, unverzerrte Schätzungen. Alternative Schatzmethoden greifen auf Instrumentalvariablen zurück. Insbes. die verallgemeinerte Methode der Momente (GMM) hat in der letzten Zeit an Bedeutung gewonnen. Bisweilen tritt bei Betrachtungen die Eigenschaft der Erwartungstreue gegenüber der Forderung nach einem minimalen mittleren quadratischen Fehler in den Hintergrund. Dies führt zu RIDGE- und SHRUNKEN-Schätzern. Besteht das Modell aus einem interdependenten Gleichungssystem, so sind andere Schätzverfahren anzuwenden als die direkte Methode der kleinsten Quadrate, da letztere zu inkonsistenten Schätzungen führt. Zu unterscheiden ist bei interdependenten Systemen zwischen · Eingleichungsschätzungen: indirekte Methode der kleinsten Quadrate (ILS), zweistufige Methode der kleinsten Quadrate (2 SLS), Maximum-Likelihood-Methode bei beschränkter Information (LIML); · simultanen Schätzverfahren: dreistufige Methode der kleinsten Quadrate (3 SLS), Maximum-Likelihood-Me- thode bei voller Information (FTML). Der Vorteil der letzteren Verfahren ist in der Verwendung von mehr Informationen zu sehen, während die Einzelgleichungsschätzungen weniger anfällig sind bezüglich der Fehlerübertragung bei gewissen Fehlspezifikationen. Gegenüber Ansätzen, die von aggregierten, kardinal meßbaren Daten ausgehen, haben zunehmend Methoden an Bedeutung gewonnen, die für mikroökonomische Daten relevant sind. Hierbei handelt es sich um Schätzansätze mit qualitativen und begrenzt abhängigen (zensierten) Variablen. Daneben sind Paneldaten- und Verweildauerschätzer in den Vordergrund getreten. Neuere Entwicklungen für Modelle mit makroökonomischen Daten sind v.a. bei der Zeitreihen-analyse auszumachen. Stichworte wie Unit-Roots, Kointegration und Fehlerkorrekturmodelle sind hierfür wesentlich. Anschließend an die Punktschätzung der Parameter, deren numerische Werte sich lediglich aus dem Datenmaterial einer Stichprobe ergeben haben, ist zu prüfen, ob die geschätzten Vorzeichen der Parameter mit der Wirkungsrichtung aufgrund der zugrunde gelegten Theorie übereinstimmen. Weiterhin ist zu fragen, soweit noch zusätzliche A-priori-Informationen vorhanden sind, ob diese mit dem Schätzergebnis vereinbar sind, von welchem Bereich bei vorgegebener Irrtumswahrscheinlichkeit die »wahren« Parameter einzeln bzw. im Verbund überdeckt werden. Von Interesse ist außerdem, wieviel einzelne vorherbestimmte Variablen isoliert oder im Verbund mit anderen von der Streuung der gemeinsam abhängigen Variablen erklären und ob dieser Einfluss signifikant ist. Darüber hinaus werden Tests der Überprüfung der Modellannahmen herangezogen. Dienen geschätzte ökonometrische Modelle der Quantifizierung von Wirkungen wirtschaftspolitischer Maßnahmen, so ist als Problem zu beachten, dass sich sowohl innerhalb des Schätzzeitraumes als auch zwischen ihm und dem Zeitpunkt des Einsatzes der wirtschaftspolitischen Maßnahmen die Parameterstruktur verändert haben kann, dass ein Strukturbruch vorliegt bzw. dass dieser gerade durch den Einsatz der Maßnahmen induziert wird. Ähnliches gilt es, auch bei Prognosen von endogenen Variablen über ökonometrische Modelle zu beachten. Hinzu kommt das Problem der Prognose der exogenen Variablen und deren Genauigkeit. Die beschriebene Vorgehensweise der Ökonometrie mit den verschiedenen Schritten Modellierung, Schätzung, Tests und Prognose, die so lange zu Modifikationen führt, bis die Theorie und Modellschätzung kompatibel sind, wird heute häufig als traditionelle Strategie bezeichnet. Die Kritik an diesem Ansatz hebt besonders hervor, dass die meisten ökonomischen Theorien und die daraus resultierenden Modelle nur extrem einfache Approximationen sind, die nur sehr wenig von realen Vorgängen erklären können, dass beobachtete Zeitreihen häufig sehr kurz sind und nur selten das messen, was aus theoretischer Sicht intendiert ist. Aufgrund dieser Kritik haben sich drei neue ökonometrische Schulen entwickelt. Die HENDRY-Schule begreift ökonometrische Modelle als Approximationen inhärent unbekannter datengenerierender Prozesse. Rivalisierende Modelle werden durch Verwendung neuer Daten, Vorhersage- und Spezifikationstests sowie durch Modellierung übergeordneter Ansätze hinsichtlich ihrer Güte miteinander verglichen. Die LEAMER-Schule nimmt allgemeine Modelle mit vielen Parametern zum Ausgangspunkt und überprüft die Sensitivität der Inferenz- und Wirkungsrichtung durch Variation der Restriktionen. Solange sich Änderungen ergeben, insbes. bei Verwendung unplausibler Restriktionen, muss das Modell als unbefriedigend betrachtet werden. Die SIMS-Schule argumentiert, dass die Identifikation geeigneter Strukturmodelle praktisch unmöglich ist. Sie plädiert daher für die theoretisch sehr viel weniger befriedigende Schätzung reduzierter Formen, für vektorautoregressive Modelle. Literatur: Schneeweiß, H. (1990). Hübler, O. (1989). Kmenta, J. (1986)
<< vorhergehender Fachbegriff |
|
nächster Fachbegriff >> |
|
|
|
|