Thursday 13 July 2017

Meta Regression In Stata Forex


9.6.4 160 Meta-Regression Wenn Studien in Untergruppen unterteilt werden (siehe Abschnitt 9.6.2), kann dies als eine Untersuchung dahingehend betrachtet werden, wie ein kategoriales Studienmerkmal mit den Interventionseffekten in der Metaanalyse assoziiert ist. Zum Beispiel können Untersuchungen, bei denen die Zuordnungssequenzverbergung ausreichend war, zu anderen Ergebnissen führen, als denen, in denen sie unzureichend war. Hierbei ist die Zuordnungssequenzverbergung, die entweder adäquat oder unzureichend ist, ein kategorisches Merkmal auf der Studienebene. Die Meta-Regression ist eine Erweiterung auf Teilgruppenanalysen, die die Wirkung von kontinuierlichen und kategorialen Merkmalen untersuchen lassen und im Prinzip die Effekte mehrerer Faktoren gleichzeitig untersuchen lassen (obwohl dies aufgrund unzureichender Anzahl von Seltenen selten möglich ist Untersuchungen) 160 (Thompson 2002). Meta-Regression sollte in der Regel nicht berücksichtigt werden, wenn es weniger als zehn Studien in einer Meta-Analyse. Meta-Regressionen ähneln im Wesentlichen einfachen Regressionen, bei denen eine Ergebnisvariable nach den Werten einer oder mehrerer erklärender Variablen vorhergesagt wird. Bei der Meta-Regression ist die Ergebnisvariable die Effektschätzung (zum Beispiel eine mittlere Differenz, eine Risikodifferenz, ein logarithmisches Verhältnis oder ein logarithmisches Risikoverhältnis). Die erklärenden Variablen sind Merkmale von Studien, die die Größe der Intervention beeinflussen könnten. Diese werden oft als potentielle Effektmodifikatoren oder Kovariaten bezeichnet. Meta-Regressionen unterscheiden sich in der Regel von einfachen Regressionen in zweierlei Hinsicht. Erstens haben größere Studien mehr Einfluss auf die Beziehung als kleinere Studien, da Studien mit der Präzision ihrer jeweiligen Effektivschätzung gewichtet werden. Zweitens ist es ratsam, die restliche Heterogenität zwischen Interventionseffekten, die nicht durch die erklärenden Variablen modelliert werden, zu ermöglichen. Daraus ergibt sich der Begriff der Meta-Regression der Zufallseffekte, da die Extravariabilität in die gleiche Weise wie in einer Metaanalyse mit Zufallseffekten einbezogen wird (Thompson 1999). Der aus einer Meta-Regressionsanalyse erhaltene Regressionskoeffizient beschreibt, wie sich die Ergebnisvariable (der Interventionseffekt) mit einer Einheitszunahme der erklärenden Variablen (dem potentiellen Effektmodifikator) ändert. Die statistische Signifikanz des Regressionskoeffizienten ist ein Test, ob es einen linearen Zusammenhang zwischen Interventionseffekt und der erklärenden Variablen gibt. Wenn der Interventionseffekt ein Verhältnismaß ist, sollte der logarithmierte transformierte Wert des Interventionseffektes immer im Regressionsmodell verwendet werden (siehe Abschnitt 9.2.7), und der Exponentialwert des Regressionskoeffizienten gibt eine Schätzung der relativen Änderung in Interventionseffekt mit einer Einheitserhöhung der erklärenden Variablen. Meta-Regression kann auch verwendet werden, um Unterschiede für kategorische erläuternde Variablen wie in Untergruppenanalysen zu untersuchen. Wenn es Untergruppen von J gibt, wird die Zugehörigkeit zu bestimmten Untergruppen durch Verwendung von J 1 Dummy-Variablen (die nur Werte von Null oder Eins annehmen können) im Meta-Regressionsmodell (wie bei der Standard-Linearen Regressionsmodellierung) angezeigt. Die Regressionskoeffizienten schätzen, wie sich der Interventionseffekt in jeder Untergruppe von einer nominierten Referenzuntergruppe unterscheidet. Der P-Wert jedes Regressionskoeffizienten gibt an, ob diese Differenz statistisch signifikant ist. Die Meta-Regression kann unter Verwendung des Metareg-Makros durchgeführt werden, das für das statistische Paket von Stata verfügbar ist. Regressionsanalyse 13 Um den Standardfehler der Schätzung zu finden, nehmen wir die Summe aller quadrierten Restbegriffe und dividieren durch (n - 2) und nehmen dann Die Quadratwurzel des Ergebnisses. In diesem Fall beträgt die Summe der quadrierten Reste 0.090.160.642.250.04 3.18. Mit fünf Beobachtungen, n - 2 3 und SEE (3.183) 12 1.03. Die Berechnung für Standardfehler ist relativ ähnlich der Standardabweichung für eine Probe (n - 2 wird anstelle von n - 1 verwendet). Es gibt einige Hinweise auf die prädiktive Qualität eines Regressionsmodells mit niedrigeren SEE-Zahlen, die zeigen, dass genauere Vorhersagen möglich sind. Die Standard-Fehler-Messung zeigt jedoch nicht, inwieweit die unabhängige Variable Variationen in dem abhängigen Modell erklärt. Bestimmungskoeffizient Wie der Standardfehler gibt diese Statistik einen Hinweis darauf, wie gut ein lineares Regressionsmodell als Schätzer für die abhängige Variable dient. Sie arbeitet, indem man den Bruchteil der Gesamtvariation in der abhängigen Variablen misst, die durch Variation in der unabhängigen Variable erklärt werden kann. In diesem Zusammenhang setzt sich die Gesamtvariation aus zwei Fraktionen zusammen: Gesamtvariation erklärt Variation unerklärliche Variation Gesamtvariation Gesamtvariation Der Bestimmungskoeffizient. Oder erklärter Variation als Prozentsatz der Gesamtvariation, ist der erste dieser beiden Ausdrücke. Es wird manchmal als 1 - (unerklärliche Variation Total Variation) ausgedrückt. Für eine einfache lineare Regression mit einer unabhängigen Variablen quadriert das einfache Verfahren zur Berechnung des Bestimmungskoeffizienten den Korrelationskoeffizienten zwischen den abhängigen und unabhängigen Variablen. Da der Korrelationskoeffizient durch r gegeben ist, ist der Bestimmungskoeffizient im Volksmund als R² oder R-Quadrat bezeichnet. Wenn beispielsweise der Korrelationskoeffizient 0,76 beträgt, ist das R-Quadrat (0,76) 2 0,578. R-Quadrat-Ausdrücke werden üblicherweise als Prozentsätze ausgedrückt, weshalb 0,578 57,8 betragen. Ein zweites Verfahren zur Berechnung dieser Zahl besteht darin, die Gesamtvariation in der abhängigen Variablen Y als die Summe der quadrierten Abweichungen von dem Probenmittel zu finden. Als nächstes berechnen Sie den Standardfehler der Schätzung nach dem Prozess, der im vorherigen Abschnitt umrissen wurde. Der Koeffizient der Bestimmung wird dann durch (Gesamtvariation in Y) Gesamtvariation in Y berechnet. Dieses zweite Verfahren ist für mehrere Regressionen notwendig, wobei es mehr als eine unabhängige Variable gibt, aber für unseren Kontext werden wir zur Verfügung gestellt Der r (Korrelationskoeffizient), um einen R-Quadrat zu berechnen. Was R 2 uns sagt, sind die Veränderungen in der abhängigen Variablen Y, die durch Änderungen in der unabhängigen Variablen X erklärt werden. R 2 von 57.8 sagt uns, dass 57.8 der Änderungen von Y aus X resultieren, dass es auch 1 - 57.8 oder 42.2 von bedeutet Die Änderungen in Y sind durch X unerklärt und sind das Ergebnis anderer Faktoren. Je höher der R-Quadrat, desto besser die Vorhersagecharakteristik des linearen Regressionsmodells. Regressionskoeffizienten Für einen Regressionskoeffizienten (Intercept a oder Slope b) kann ein Konfidenzintervall mit folgenden Informationen ermittelt werden: 13 Ein geschätzter Parameterwert aus einer Probe 13 Standardfehler der Schätzung (SEE) 13 Signifikanzniveau für die t - Verteilung 13 Freiheitsgrade (die Stichprobengröße - 2) 13 Für einen Steigungskoeffizienten wird die Formel für das Konfidenzintervall durch btc SEE angegeben, wobei tc der kritische t-Wert auf unserem gewählten signifikanten Wert ist. Um zu veranschaulichen, nehmen Sie eine lineare Regression mit einem Investmentfonds-Renditen als abhängige Variable und den SampP 500 Index als unabhängige Variable. Für fünf Jahre der vierteljährlichen Renditen ergibt sich der Steigungskoeffizient b als 1,18, mit einem Standardfehler der Schätzung von 0,147. Die Studierenden-t-Verteilung für 18 Freiheitsgrade (20 Quartale - 2) bei einer 0,05 Signifikanzniveau ist 2,011. Diese Daten geben uns ein Konfidenzintervall von 1,18 (0,147) (2,011) oder einen Bereich von 0,87 bis 1,49. Unsere Interpretation ist, dass es nur eine Wahrscheinlichkeit von 5 gibt, dass die Steigung der Bevölkerung entweder kleiner als 0,87 oder größer als 1,49 ist - wir sind 95 zuversichtlich, dass dieser Fonds mindestens 87 so flüchtig wie der SampP 500, aber nicht mehr als 149 as ist Volatile, basierend auf unserer Fünf-Jahres-Stichprobe. Hypothesentests und Regressionskoeffizienten Regressionskoeffizienten werden häufig mit dem Hypothesentestverfahren getestet. Abhängig davon, was der Analytiker zu beweisen beabsichtigt, können wir einen Steigungskoeffizienten testen, um zu ermitteln, ob er die Chancen in der abhängigen Variablen und das Ausmaß, in dem es die Veränderungen erklärt, erklärt. Betas (Steigungskoeffizienten) können entweder über oder unter 1 (flüchtiger oder weniger flüchtig als der Markt) bestimmt werden. Alphas (der Intercept-Koeffizient) können auf einer Regression zwischen einem Investmentfonds und dem relevanten Marktindex getestet werden, um festzustellen, ob ein positiver Alpha-Wert vorliegt (was auf eine Wertschöpfung des Fondsmanagers schließen lässt). Die Mechanismen der Hypothesentests entsprechen denen, die wir vorher verwendet haben. Eine Nullhypothese wird auf der Grundlage eines Nichtgleich-, Größer - oder Klein-als-Falles gewählt, wobei die Alternative alle Werte erfüllt, die nicht im Null-Fall abgedeckt sind. Angenommen in unserem vorherigen Beispiel, in dem wir eine Rendite auf dem SampP 500 für 20 Quartale zurückverfolgt haben, ist unsere Hypothese, dass dieser Investmentfonds volatiler ist als der Markt. Ein Fonds, der der Marktvolatilität entspricht, wird eine Steigung b von 1,0 aufweisen, so dass für diesen Hypothesentest die Nullhypothese (H 0) als der Fall angegeben wird, bei dem die Steigung kleiner oder gleich 1,0 ist (dh H 0: b lt 1,0 ). Die alternative Hypothese H a hat b gt 1,0. Wir wissen, dass dies ein größerer Fall ist (dh ein Schwanz) - wenn wir ein 0,05 Signifikanzniveau annehmen, ist t gleich 1.734 bei Freiheitsgraden n - 2 18. Beispiel: Interpretieren eines Hypothesentests Aus unserer Stichprobe haben wir Hatte b von 1,18 und einen Standardfehler von 0,147 geschätzt. Unsere Teststatistik wird mit dieser Formel berechnet: t geschätzter Koeffizient - hypothetischer Koeffizient. Standardfehler (1,18 - 1,0) 0,147 0,180,147 oder t 1,224. Für dieses Beispiel liegt unsere berechnete Teststatistik unter dem Ablehnungsniveau von 1,734, so dass wir nicht in der Lage sind, die Nullhypothese zurückzuweisen, dass der Fonds volatiler als der Markt ist. Interpretation: Die Hypothese, dass b gt 1 für diesen Fonds wahrscheinlich mehr Beobachtungen (Freiheitsgrade) benötigt, die mit statistischer Signifikanz nachgewiesen werden können. Auch bei 1,18 nur leicht über 1,0 ist es durchaus möglich, dass dieser Fonds eigentlich nicht so volatil ist wie der Markt, und wir waren richtig, die Nullhypothese nicht abzulehnen. Beispiel: Interpretation eines Regressionskoeffizienten Die CFA-Prüfung ist wahrscheinlich, die zusammenfassende Statistik einer linearen Regression zu geben und um Interpretation zu bitten. Zur Veranschaulichung gehen die folgenden Statistiken für eine Regression zwischen einem Small-Cap-Wachstumsfonds und dem Russell 2000-Index in Betracht: 13 Korrelationskoeffizient 13 Die beiden Abkürzungen sind RSS und SSE: 13 RSS. Oder die Regressionssumme von Quadraten, ist die Summe der Gesamtvariation in der abhängigen Variablen Y, die in der Regressionsgleichung erklärt wird. Die RSS wird berechnet, indem jede Abweichung zwischen einem vorhergesagten Y-Wert und dem mittleren Y-Wert berechnet wird, wobei die Abweichung quadriert und alle Terme addiert werden. Wenn eine unabhängige Variable keine der Variationen einer abhängigen Variablen erklärt, dann sind die vorhergesagten Werte von Y gleich dem Mittelwert und RSS 0. 13 SSE. Oder die Summe des quadratischen Fehlers von Residuen berechnet, indem die Abweichung zwischen einem vorhergesagten Y und einem tatsächlichen Y ermittelt wird, das Ergebnis quadriert und alle Terme addiert werden. 13 TSS oder Gesamtabweichung ist die Summe aus RSS und SSE. Mit anderen Worten, diese ANOVA-Prozess bricht Varianz in zwei Teile: eine, die durch das Modell und eine, die nicht erklärt wird. Für eine Regressionsgleichung mit hoher prädiktiven Qualität müssen wir eine hohe RSS und eine niedrige SSE sehen, die das Verhältnis (RSS1) SSE (n - 2) hoch macht und (basierend auf einem Vergleich mit einem kritischen F - Wert) statistisch aussagekräftig. Der kritische Wert wird der F-Verteilung entnommen und basiert auf Freiheitsgraden. Zum Beispiel würden bei 20 Beobachtungen Freiheitsgrade n-2 oder 18 sein, was zu einem kritischen Wert (aus der Tabelle) von 2,19 führt. Wenn RSS 2,5 und SSE 1,8 wäre, wäre die berechnete Teststatistik F (2,5 (1,818) 25, die über dem kritischen Wert liegt, was anzeigt, dass die Regressionsgleichung eine prädiktive Qualität aufweist (b ist von 0 verschieden) Mit Regressionsmodellen Regressionsmodelle werden häufig verwendet, um ökonomische Statistiken wie Inflation und BIP-Wachstum abzuschätzen. Es wird angenommen, dass zwischen der geschätzten jährlichen Inflation (X oder unabhängiger Variable) und der tatsächlichen Zahl (Y oder abhängiger Variable) folgende Regression erfolgt: Modell wird die prognostizierte Inflationszahl auf der Basis des Modells für die folgenden Inflationszenarien berechnet: 13 Inflationsabschätzung 13 Inflation nach Modell 13 Die Prognosen, die auf diesem Modell basieren, scheinen am besten für typische Inflationsschätzungen zu funktionieren und deuten darauf hin, dass extreme Schätzungen dazu tendieren Inflation - zB eine tatsächliche Inflation von nur 4,46, wenn die Schätzung war 4.7 Das Modell scheint zu deuten darauf hin, dass Schätzungen sind hoch prädiktive. Um dieses Modell besser zu bewerten, müssten wir jedoch den Standardfehler und die Anzahl der Beobachtungen sehen, auf denen er basiert. Wenn wir den wahren Wert der Regressionsparameter (Steilheit und Intercept) kennen, wäre die Varianz eines beliebigen vorhergesagten Y-Werts gleich dem Quadrat des Standardfehlers. In der Praxis müssen wir die Regressionsparameter schätzen, also ist unser vorhergesagter Wert für Y eine Schätzung, die auf einem geschätzten Modell basiert. Wie zuversichtlich können wir in einem solchen Prozess sein Um ein Vorhersageintervall zu bestimmen, verwenden Sie die folgenden Schritte: 1. Prognostizieren Sie den Wert der abhängigen Variablen Y auf der Grundlage der unabhängigen Beobachtung X. 2. Berechnen Sie die Varianz des Vorhersagefehlers Wobei n die Anzahl der Beobachtungen ist, X der Wert der unabhängigen Variablen ist, die verwendet wird, um die Vorhersage durchzuführen, wobei X der geschätzte Mittelwert der unabhängigen Variablen und sx ist 2 ist die Varianz von X. 3. Wählen Sie ein Signifikanzniveau für das Konfidenzintervall. 4. Konstruieren Sie ein Intervall bei (1 -) Prozent Zuverlässigkeit mit der Struktur Y t c s f. Hier ist ein weiterer Fall, wo das Material viel technischer als nötig wird und man kann sich in der Vorbereitung, wenn in Wirklichkeit die Formel für die Varianz eines Vorhersagefehlers nicht wahrscheinlich abgedeckt werden. Prioritize - verschwenden Sie nicht wertvolle Studienzeiten, die es merken. Wenn das Konzept überhaupt getestet wird, youll wahrscheinlich die Antwort auf Teil 2 gegeben werden. Einfach wissen, wie die Struktur in Teil 4 verwenden, um eine Frage zu beantworten. Wenn beispielsweise die vorhergesagte X-Beobachtung für die Regression Y 1,5 2,5X 2 ist, würden wir ein vorhergesagtes Y von 1,5 2,5 (2) oder 6,5 haben. Unser Vertrauensintervall beträgt 6,5 t c s f. Der t-stat basiert auf einem gewählten Konfidenzintervall und Freiheitsgraden, während sf die Quadratwurzel der oben stehenden Gleichung ist (für Varianz des Vorhersagefehlers), wenn diese Zahlen tc 2.10 für 95 Vertrauen und sf 0.443 das Intervall sind 6.5 (2.1) (0.443) oder 5.57 bis 7.43 Einschränkungen der Regressionsanalyse Konzentrieren Sie sich auf drei Hauptbeschränkungen: 1. Instabilität der Parameter - Dies ist die Tendenz, dass sich die Beziehungen zwischen Variablen im Laufe der Zeit ändern, und zwar aufgrund von Veränderungen in der Wirtschaft oder den Märkten , Unter anderen Unwägbarkeiten. Wenn ein Investmentfonds eine Rückkehr Geschichte in einem Markt, in dem Technologie war ein Leadership-Sektor, das Modell nicht funktionieren, wenn ausländische Märkte und Small-Cap-Märkten sind führend.- 2. Public Dissemination der Beziehung - In einem effizienten Markt , Kann dies die Effektivität dieser Beziehung in künftigen Perioden begrenzen. So zeigt beispielsweise die Entdeckung, dass niedrige Kurs-to-Bull-Value-Werte einen hohen Preis-zu-Buch-Wert übertreffen, eine höhere Wertentwicklung und wertorientierte Investmentansätze Wird nicht beibehalten die gleiche Beziehung wie in der Vergangenheit. 3. Verletzung von Regressionsbeziehungen - Früher haben wir die sechs klassischen Annahmen einer linearen Regression zusammengefasst. In der realen Welt sind diese Annahmen oft unrealistisch - z. B. Dass die unabhängige Variable X nicht zufällig ist.

No comments:

Post a Comment