Titelaufnahme

Titel
Estimation of constrained factor models with application to financial time series / Petra Pasching
VerfasserPasching, Petra
Begutachter / BegutachterinDeistler, Manfred ; Trendafilov, Nickolay
Erschienen2010
UmfangXII, 114 S. : Ill., graph. Darst.
HochschulschriftWien, Techn. Univ., Diss., 2010
Anmerkung
Zsfassung in dt. Sprache
SpracheEnglisch
Bibl. ReferenzOeBB
DokumenttypDissertation
Schlagwörter (DE)Zeitreihenanalyse / Faktoranalyse / Hauptkomponentenanalyse / Reduced Rank Regression Analyse / Prognosemodell / strukturierte Ladungsmatrix / Inputselektion / Parametrisierung / Finanzmarkt
Schlagwörter (EN)time series analysis / factor analysis / principal component analysis / reduced rank regression analysis / time series prediction / sparse matrix of loadings / input selection / parametrization
Schlagwörter (GND)Zeitreihenanalyse / Multivariate Analyse / Faktorenanalyse / Kreditmarkt / Zeitreihenanalyse / Multivariate Analyse / Faktorenanalyse
URNurn:nbn:at:at-ubtuw:1-43754 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Estimation of constrained factor models with application to financial time series [0.59 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Diese Dissertation befasst sich mit der Modellierung und der Vorhersage multivariater Zeitreihen mit einer großen Querschnittsdimension. Heutzutage betont die steigende Verfügbarkeit hochdimensionaler Daten die Notwendigkeit für die Anwendung und Entwicklung von Methodiken, um deren Informationsgehalt analysieren und erfassen zu können. Es ist hinreichend bekannt, dass Standardmethoden wie zum Beispiel Vektorautoregressive Modelle mit Exogenen Variablen (VARX Modelle) dem Fluch der Dimensionalität unterliegen, einem Begriff, der von Richard Bellman geprägt wurde. Eine Möglichkeit, diese Problematik zu umgehen oder abzuschwächen, besteht in der Verwendung von Modellen, die die Dimension des Parameterraums reduzieren. Im Rahmen dieser Dissertation werden zwei dieser Methoden beleuchtet, die als Faktorenanalyse zusammengefasst werden können, nämlich die Hauptkomponentenanalyse (PCA, aus dem englischen Principal Component Analysis) und die Reduced Rank Regression Analysis (RRRA).

Im Falle der PCA wird eine Matrix von beobachteten Variablen durch eine Matrix niedrigerer Dimension so approximiert, dass die Höhe der erklärten Varianz maximiert wird. Die Lösung zu diesem Optimierungsproblem erhält man mithilfe einer Eigenwertzerlegung der Kovarianzmatrix der gegebenen hochdimensionalen Datenmatrix.

RRRA hingegen zerlegt die Koeffizientenmatrix eines linearen Regressionsmodells mit dem Ziel, diese durch eine Matrix von gegebener niedrigerer Dimension so anzunähern, dass möglichst viel der Variation der abhängigen Variablen erklärt wird. Die Schätzung eines solchen Modells basiert auf einer Singulärwertzerlegung der Koeffizientenmatrix.

Dennoch kann sich die Interpretation eines Faktormodells bei großer Variablenzahl trotz der deutlichen Reduktion der Parameteranzahl als schwierig herausstellen. Weiters könnten sehr kleine Einträge in einer Ladungsmatrix, deren Schätzung auf Stichprobendaten beruht, verschmierte Nullen des 'wahren' Modells sein. Diese Überlegungen stellen die wesentlichen Beweggründe für die Entwicklung von restringierten Faktormodellen mit dünn besetzten Ladungsmatrizen dar. Oft existiert in empirischen Anwendungen zusätzliche a priori Information über die Struktur eines Faktormodells, welche voraussetzt, dass manche Faktoren nicht auf alle Variablen laden. Das bedeutet auch, dass man in so einem Fall bereits eine Vorstellung hinsichtlich der Interpretation der (latenten) Faktoren hat.

Das Hauptaugenmerk dieser Dissertation liegt in der Entwicklung und Schätzung der zuvor genannten Techniken, die die Dimension des Parameterraums reduzieren, unter Berücksichtigung von zusätzlichen, a priori festgelegten Null-Restriktion an entsprechenden Positionen der Ladungsmatrizen. Es werden Optimierungsaufgaben mit Restriktionen definiert, die im unrestringierten Fall die herkömmliche Hauptkomponentenlösung oder Reduced Rank Regression Lösung ergeben.

Diese Probleme werden numerisch effizient gelöst und der Aspekt der Eindeutigkeit der erhaltenen Lösung wird analysiert. Außerdem wird sowohl für die PCA als auch für die RRRA ein Vorhersagemodell in Kombination mit einem auf Informationskriterien beruhenden Inputselektionsalgorithmus definiert.

Zum Abschluss werden anhand einer empirischen Anwendung auf Finanzzeitreihen die out-of-sample Modellanpassung und die Portfoliowertentwicklung des restringierten Hauptkomponentenmodells mit jener des unrestringierten verglichen.

Zusammenfassung (Englisch)

This thesis is concerned with the modeling and forecasting of multivariate time series with a large cross-sectional dimension.

Nowadays, the increasing availability of high dimensional data sets underlines the necessity of applying and developing methodologies in order to analyze and administrate this huge number of variables. It is well known, that the number of parameters of standard methods such as, for example, Vector Autoregressive Models with Exogenous Variables (VARX models) are subject to the curse of dimensionality, an expression that was coined by Richard Bellman. One way to overcome this problem is given by models reducing the dimensionality of the parameter space. In this framework two of these methods, which can be summarized as Factor Analysis, are highlighted, namely Principal Component Analysis (PCA) and Reduced Rank Regression Analysis (RRRA).

In the case of PCA a matrix of observed variables is approximated by a matrix of lower dimension in such a way, that the amount of explained variance is maximized. The solution to this optimization problem is obtained with the help of the eigenvalue decomposition of the covariance matrix of the data. RRRA is a technique that decomposes the coefficient matrix of a linear regression model with the aim of getting a coefficient matrix of a fixed lower rank than the original one and explaining as much variation of the response variables as possible. Estimation of this model class is related to a singular value decomposition.

Nevertheless, despite of a clear reduction of the number of parameters in factor models, interpretation can still be a difficult issue, if the number of response variables is relatively large. Moreover, small values in the loadings matrix of a factor model, whose estimation is based on sample data, could be blurred zeros of the 'true' model. These aspects form the main motivation for developing restricted factor models with sparse matrices of loadings. In many cases of empirical applications exists additional a priori knowledge about the structure of a factor model, implying that some factors do not load on every variable. This also means that one has already a certain idea about the interpretation of the (latent) factors.

The main focus of this thesis lies in developing and estimating the above mentioned dimension reducing techniques with additional, a priori defined zero restrictions on certain entries of the corresponding loadings matrix. Optimization problems with restrictions, that lead in the unrestricted case to conventional PCA resp. RRRA, are defined and solved in a numerically efficient way. Furthermore, the aspect of uniqueness of the obtained result is analyzed and a forecasting model in combination with an input selection algorithm related to information criteria is stated both for the restricted Principal Components model and the restricted Reduced Rank Regression model.

Finally, an empirical application to financial time series is presented comparing the out-of-sample fit and the performance values of a restricted versus an unrestricted Principal Components forecasting model.