Модель векторной коррекции ошибок

Векторная модель коррекции ошибок

Рассмотрим модель р-го порядка:

Где:

  • yt.
    k-мерный вектор нестационарных
    переменных;

  • xt.
    d-мерный вектор экзогенных
    переменных;

  • et.
    k-мерный вектор случайных
    составляющих.

Модель можно представить в виде:

Где:

Ключевая теорема Гранжера гласит, что если матрица П имеет неполный
ранг r<k,
то существуют kxr
матрицы α и β, каждая ранга r,
такие, что П = α · βT,
ряд βT является
стационарным, и каждый столбец матрицы β является коинтеграционным
вектором, r — число коинтеграционных
связей. Элементы матрицы α называют сглаживающими параметрами модели коррекции
ошибок.

Если у вас имеется k эндогенных
переменных (каждая из которых содержит единичный корень), то может существовать
от нуля до k-1 линейно независимой
коинтеграционной связи. Если коинтеграционных
связей нет, к ряду в первых разностях может быть применен стандартный
анализ временных рядов. И наоборот, если в системе имеется одно коинтеграционное
уравнение, в каждое уравнение системы должна быть добавлена одна линейная
комбинация эндогенных переменных βTyt-1.
После умножения на коэффициент уравнения (т.е. на сглаживающий параметр
α) получается результирующая составляющая α · βT · yt-1,
которая и является составляющей коррекции ошибок. Каждое следующее коинтеграционное
уравнение будет вносить дополнительную составляющую коррекции ошибок,
уникальную по линейной комбинации параметров.

Если существует k коинтеграционных
связей, то ни один из рядов не имеет единичного корня и модель может быть
описана без взятия разностей.

Изучаемые ряды могут содержать ненулевое среднее, или тренд. Аналогично
коинтеграционные уравнения могут содержать константу и тренд. На практике
чаще используются следующие виды моделей:

Ряд y Коинтеграционные уравнения Модель
Тренда нет Константы нет
Тренда нет Константа есть
Линейный тренд Константа есть
Линейный тренд Линейный тренд
Квадратичный
тренд
Линейный тренд

α’ — матрица, рассчитывающаяся из соотношения αT · α, = 0

В рамках такой схемы, при построении модели, можно варьировать два параметра.
Можно фиксировать вид модели и варьировать ранг. Или наоборот, фиксировать
ранг и выбирать наиболее подходящую форму модели. При построении помимо
статистических критериев следует руководствоваться экономической адекватностью
модели. Следует обратить внимание на нормализованные коинтеграционные
уравнения, чтобы убедится в том, что они отвечают вашим ожиданиям о природе
рассматриваемого процесса.

Модель также может быть приведена к более общему виду:

См. также:

Библиотека методов и моделей
| Коинтегрированные процессы |
Модель коррекции ошибок |
Модель «Векторная
модель коррекции ошибок» | ISmErrorCorrectionModel

From Wikipedia, the free encyclopedia

An error correction model (ECM) belongs to a category of multiple time series models most commonly used for data where the underlying variables have a long-run common stochastic trend, also known as cointegration. ECMs are a theoretically-driven approach useful for estimating both short-term and long-term effects of one time series on another. The term error-correction relates to the fact that last-period’s deviation from a long-run equilibrium, the error, influences its short-run dynamics. Thus ECMs directly estimate the speed at which a dependent variable returns to equilibrium after a change in other variables.

History[edit]

Yule (1926) and Granger and Newbold (1974) were the first to draw attention to the problem of spurious correlation and find solutions on how to address it in time series analysis.[1][2] Given two completely unrelated but integrated (non-stationary) time series, the regression analysis of one on the other will tend to produce an apparently statistically significant relationship and thus a researcher might falsely believe to have found evidence of a true relationship between these variables. Ordinary least squares will no longer be consistent and commonly used test-statistics will be non-valid. In particular, Monte Carlo simulations show that one will get a very high R squared, very high individual t-statistic and a low Durbin–Watson statistic. Technically speaking, Phillips (1986) proved that parameter estimates will not converge in probability, the intercept will diverge and the slope will have a non-degenerate distribution as the sample size increases.[3] However, there might be a common stochastic trend to both series that a researcher is genuinely interested in because it reflects a long-run relationship between these variables.

Because of the stochastic nature of the trend it is not possible to break up integrated series into a deterministic (predictable) trend and a stationary series containing deviations from trend. Even in deterministically detrended random walks spurious correlations will eventually emerge. Thus detrending does not solve the estimation problem.

In order to still use the Box–Jenkins approach, one could difference the series and then estimate models such as ARIMA, given that many commonly used time series (e.g. in economics) appear to be stationary in first differences. Forecasts from such a model will still reflect cycles and seasonality that are present in the data. However, any information about long-run adjustments that the data in levels may contain is omitted and longer term forecasts will be unreliable.

This led Sargan (1964) to develop the ECM methodology, which retains the level information.[4][5]

Estimation[edit]

Several methods are known in the literature for estimating a refined dynamic model as described above. Among these are the Engle and Granger 2-step approach, estimating their ECM in one step and the vector-based VECM using Johansen’s method.[6]

Engle and Granger 2-step approach[edit]

The first step of this method is to pretest the individual time series one uses in order to confirm that they are non-stationary in the first place. This can be done by standard unit root DF testing and ADF test (to resolve the problem of serially correlated errors).
Take the case of two different series x_{t} and y_{t}. If both are I(0), standard regression analysis will be valid. If they are integrated of a different order, e.g. one being I(1) and the other being I(0), one has to transform the model.

If they are both integrated to the same order (commonly I(1)), we can estimate an ECM model of the form

{\displaystyle A(L)\,\Delta y_{t}=\gamma +B(L)\,\Delta x_{t}+\alpha (y_{t-1}-\beta _{0}-\beta _{1}x_{t-1})+\nu _{t}.}

If both variables are integrated and this ECM exists, they are cointegrated by the Engle–Granger representation theorem.

The second step is then to estimate the model using ordinary least squares: {\displaystyle y_{t}=\beta _{0}+\beta _{1}x_{t}+\varepsilon _{t}}
If the regression is not spurious as determined by test criteria described above, Ordinary least squares will not only be valid, but also consistent (Stock, 1987).
Then the predicted residuals {\displaystyle {\hat {\varepsilon _{t}}}=y_{t}-\beta _{0}-\beta _{1}x_{t}} from this regression are saved and used in a regression of differenced variables plus a lagged error term

{\displaystyle A(L)\,\Delta y_{t}=\gamma +B(L)\,\Delta x_{t}+\alpha {\hat {\varepsilon }}_{t-1}+\nu _{t}.}

One can then test for cointegration using a standard t-statistic on \alpha .
While this approach is easy to apply, there are numerous problems:

VECM[edit]

The Engle–Granger approach as described above suffers from a number of weaknesses. Namely it is restricted to only a single equation with one variable designated as the dependent variable, explained by another variable that is assumed to be weakly exogeneous for the parameters of interest. It also relies on pretesting the time series to find out whether variables are I(0) or I(1). These weaknesses can be addressed through the use of Johansen’s procedure. Its advantages include that pretesting is not necessary, there can be numerous cointegrating relationships, all variables are treated as endogenous and tests relating to the long-run parameters are possible. The resulting model is known as a vector error correction model (VECM), as it adds error correction features to a multi-factor model known as vector autoregression (VAR). The procedure is done as follows:

  • Step 1: estimate an unrestricted VAR involving potentially non-stationary variables
  • Step 2: Test for cointegration using Johansen test
  • Step 3: Form and analyse the VECM.

An example of ECM[edit]

The idea of cointegration may be demonstrated in a simple macroeconomic setting. Suppose, consumption C_{t} and disposable income Y_{t} are macroeconomic time series that are related in the long run (see Permanent income hypothesis). Specifically, let average propensity to consume be 90%, that is, in the long run C_{t}=0.9Y_{t}. From the econometrician’s point of view, this long run relationship (aka cointegration) exists if errors from the regression {\displaystyle C_{t}=\beta Y_{t}+\varepsilon _{t}} are a stationary series, although Y_{t} and C_{t} are non-stationary. Suppose also that if Y_{t} suddenly changes by \Delta Y_{t}, then C_{t} changes by {\displaystyle \Delta C_{t}=0.5\,\Delta Y_{t}}, that is, marginal propensity to consume equals 50%. Our final assumption is that the gap between current and equilibrium consumption decreases each period by 20%.

In this setting a change \Delta C_{t}=C_{t}-C_{{t-1}} in consumption level can be modelled as {\displaystyle \Delta C_{t}=0.5\,\Delta Y_{t}-0.2(C_{t-1}-0.9Y_{t-1})+\varepsilon _{t}}. The first term in the RHS describes short-run impact of change in Y_{t} on C_{t}, the second term explains long-run gravitation towards the equilibrium relationship between the variables, and the third term reflects random shocks that the system receives (e.g. shocks of consumer confidence that affect consumption). To see how the model works, consider two kinds of shocks: permanent and transitory (temporary). For simplicity, let \varepsilon _{t} be zero for all t. Suppose in period t − 1 the system is in equilibrium, i.e. C_{{t-1}}=0.9Y_{{t-1}}. Suppose that in the period t, disposable income Y_{t} increases by 10 and then returns to its previous level. Then C_{t} first (in period t) increases by 5 (half of 10), but after the second period C_{t} begins to decrease and converges to its initial level. In contrast, if the shock to Y_{t} is permanent, then C_{t} slowly converges to a value that exceeds the initial C_{{t-1}} by 9.

This structure is common to all ECM models. In practice, econometricians often first estimate the cointegration relationship (equation in levels), and then insert it into the main model (equation in differences).

References[edit]

  1. ^ Yule, Georges Udny (1926). «Why do we sometimes get nonsense correlations between time series? – A study in sampling and the nature of time-series». Journal of the Royal Statistical Society. 89 (1): 1–63. JSTOR 2341482.
  2. ^ Granger, C.W.J.; Newbold, P. (1978). «Spurious regressions in Econometrics». Journal of Econometrics. 2 (2): 111–120. JSTOR 2231972.
  3. ^ Phillips, Peter C.B. (1985). «Understanding Spurious Regressions in Econometrics» (PDF). Cowles Foundation Discussion Papers 757. Cowles Foundation for Research in Economics, Yale University.
  4. ^ Sargan, J. D. (1964). «Wages and Prices in the United Kingdom: A Study in Econometric Methodology», 16, 25–54. in Econometric Analysis for National Economic Planning, ed. by P. E. Hart, G. Mills, and J. N. Whittaker. London: Butterworths
  5. ^ Davidson, J. E. H.; Hendry, D. F.; Srba, F.; Yeo, J. S. (1978). «Econometric modelling of the aggregate time-series relationship between consumers’ expenditure and income in the United Kingdom». Economic Journal. 88 (352): 661–692. JSTOR 2231972.
  6. ^ Engle, Robert F.; Granger, Clive W. J. (1987). «Co-integration and error correction: Representation, estimation and testing». Econometrica. 55 (2): 251–276. JSTOR 1913236.

Further reading[edit]

  • Dolado, Juan J.; Gonzalo, Jesús; Marmol, Francesc (2001). «Cointegration». In Baltagi, Badi H. (ed.). A Companion to Theoretical Econometrics. Oxford: Blackwell. pp. 634–654. doi:10.1002/9780470996249.ch31. ISBN 0-631-21254-X.
  • Enders, Walter (2010). Applied Econometric Time Series (Third ed.). New York: John Wiley & Sons. pp. 272–355. ISBN 978-0-470-50539-7.
  • Lütkepohl, Helmut (2006). New Introduction to Multiple Time Series Analysis. Berlin: Springer. pp. 237–352. ISBN 978-3-540-26239-8.
  • Martin, Vance; Hurn, Stan; Harris, David (2013). Econometric Modelling with Time Series. New York: Cambridge University Press. pp. 662–711. ISBN 978-0-521-13981-6.

Тест Йохансена на коинтеграцию

Время на прочтение
15 мин

Количество просмотров 3.1K

Цель данной статьи — поделиться результатами сравнительного анализ двух тестов на коинтеграцию, теста Энгла-Гренджера и теста Йохансена. Для этого нам понадобится рассмотреть соотношение между двумя и более переменными, понять, что такое VAR процесс, как перейти к VECM модели, в чем заключается процедура Йохансена, и как интерпретировать результат статистического теста, полученного от стандартного пакета типа Matlab.

VAR процесс

Регрессия полезна, когда анализируются только два ряда, потому что в этом случае может быть не более одного коэффициента коинтеграции. В случае со многими переменными может быть более одного вектора коинтеграции. Следовательно, нужна методология, которая бы определила структуру всех векторов коинтеграции.

Векторный авторегрессионный (VAR) процесс, основанный на гауссовых (нормально распределенных) ошибках, часто использовался в качестве описания макроэкономических временных рядов. Причин для этого много: VAR-модель гибкая, легко оцениваемая и, как правило, хорошо вписывается в макроэкономические данные. Однако возможность объединения долгосрочной и краткосрочной информации с использованием свойств коинтеграции, вероятно, является наиболее важной причиной, по которой VAR-модель продолжает вызывать интерес как у эконометристов, так и у прикладных экономистов.

Теоретические экономические модели традиционно разрабатывались как неслучайные математические сущности и часто применялись к эмпирическим данным путем добавления процесса случайных ошибок в математическую модель.

С эконометрической точки зрения эти два подхода принципиально отличаются друг от друга: первый начинается с явной случайной формулировки всех данных, а затем сужает общую статистическую (динамическую) модель путем наложения поддающихся проверке ограничений на параметры, второй начинается с математической (статической) формулировки теоретической модели, а затем расширяет модель путем добавления случайных компонентов.

К сожалению, было доказано, что эти два подхода, даже если применяются к идентичным данным, дают очень разные результаты, поэтому приводят к различным выводам. С научной точки зрения это неудовлетворительно. Поэтому здесь мы попытаемся преодолеть разрыв между двумя точками зрения, начав с некоторых типичных вопросов, которые представляют теоретический интерес, а затем покажем, как можно ответить на эти вопросы на основе статистического анализа VAR-модели. Поскольку статистический анализ по своей конструкции «больше», чем теоретическая модель, он не только отвечает на конкретные теоретические вопросы, но и дает дополнительное представление о макроэкономической проблеме.

Теоретическую модель можно упростить, сделав допущение «при прочих равных условиях», то есть что «все остальное неизменно», в то время как статистически четкая эмпирическая модель должна решать теоретическую проблему в контексте «все остальное меняется». Встраивая теоретическую модель в более широкие эмпирические рамки, анализ статистически обоснованной модели может подтвердить наличие подводных камней в макроэкономическом рассуждении. В этом смысле VAR-анализ может быть полезен для создания новых гипотез или для изменения слишком узко заданных теоретических моделей.

На практике полезно классифицировать переменные, которые характеризуются высокой степенью персистентности во времени (незначительный возврат к среднему), как нестационарные, а переменные, характеризующиеся значительной тенденцией возврата к среднему, как стационарные. Однако важно подчеркнуть, что стационарность / нестационарность или, наоборот, порядок интегрирования являются не свойством экономической переменной, а удобным статистическим приближением для разграничения краткосрочных, среднесрочных и долгосрочных изменений в данных.

Перейдем к случаю, когда мы наблюдаем вектор p переменных. В этом случае необходимо дополнительно обсудить ковариации между переменными в момент времени t, а также их ковариации между моментами времени t и t - h. Ковариации содержат информацию о статических и динамических связях между переменными, которую мы хотели бы раскрыть с помощью эконометрики. Для простоты x_t будет использоваться для обозначения как случайной величины, так и ее реализации.

Рассмотрим (p \times 1)-мерный вектор x_t:

x_t = \left[\begin{array}{c}	x_{1,t} \\	x_{2,t} \\	\vdots \\	x_{p,t} \\\end{array}\right], t = 1,\dots,T.

Введем следующее обозначение на случай, когда не были сделаны упрощающие предположения:

E[x_t] = \left[\begin{array}{c}	\mu_{1,t} \\	\mu_{2,t} \\	\vdots \\	\mu_{p,t} \\\end{array}\right], Cov[x_t,x_{t-h}] = \left[\begin{array}{cccc}	\sigma_{11.h} & \sigma_{12.h} & \dots & \sigma_{1p.h} \\	\sigma_{21.h} & \sigma_{22.h} & \dots & \sigma_{2p.h} \\	\vdots & \vdots & \ddots & \vdots \\	\sigma_{p1.h} & \sigma_{p2.h} & \dots & \sigma_{pp.h} \\\end{array}\right] = \Sigma_{t.h}, t = 1,\dots,T.

Теперь предположим, что одно и то же распределение применимо ко всем x_t и что распределение приблизительно нормально, поэтому первые два момента вокруг среднего значения (центральные моменты) являются достаточными для описания вариации в данных. Введем обозначение:

Z = \left[\begin{array}{c}	x_1 \\	x_2 \\	\vdots \\	x_T \\\end{array}\right], E[Z] = \left[\begin{array}{c}	\mu_1 \\	\mu_2 \\	\vdots \\	\mu_T \\\end{array}\right] = \tilde \mu,

где Z — вектор размерности (Tp \times 1). Ковариационная матрица представлена следующим образом

E[(Z - \tilde \mu)(Z - \tilde \mu)'] = \left[\begin{array}{ccccc}	\Sigma_{1.0} & \Sigma_{2.1}^{'} & \dots & \Sigma_{T-1.T-2}^{'} & \Sigma_{T.T-1}^{'} \\	\Sigma_{2.1} & \Sigma_{2.0} &  & \dots & \Sigma_{T.T-2}^{'} \\	\vdots & \vdots & \ddots & \vdots & \vdots \\	\Sigma_{T-1.T-2} & \vdots &  & \Sigma_{T-1.0} & \Sigma_{T.1}^{'} \\	\Sigma_{T.T-1} & \Sigma_{T.T-2} & \dots & \Sigma_{T.1} & \Sigma_{T.0} \\\end{array}\right] = \sum_{(Tp \times Tp)}^{\sim},

где \Sigma_{t.h} = Cov(x_t,x_{t-h}) = E(x_t - \mu_t)(x_{t-h} - \mu_{t-h})'. Вышеприведенное обозначение дает полное общее описание многомерного нормального векторного случайного процесса. Поскольку параметров для оценки гораздо больше, чем наблюдений, то с практической точки зрения такое описание бесполезно, и необходимо упростить предположения для сокращения числа параметров. Эмпирические модели обычно основаны на следующих предположениях:

Теперь мы можем записать среднее значение и ковариации в более простой форме:

\tilde \mu = \left[\begin{array}{c}	\mu \\	\mu \\	\vdots \\	\mu \\\end{array}\right], \tilde \Sigma = \left[\begin{array}{ccccc}	\Sigma_{0} & \Sigma_{1}^{'} & \Sigma_{2}^{'} & \dots & \Sigma_{T-1}^{'} \\	\Sigma_{1} & \Sigma_{0} & \Sigma_{1}^{'} & \ddots & \vdots \\	\Sigma_{2} & \Sigma_{1} & \Sigma_{0} & \ddots & \Sigma_{2}^{'} \\	\vdots & \ddots & \ddots & \ddots & \Sigma_{1}^{'} \\	\Sigma_{T-1} & \dots & \Sigma_{2} & \Sigma_{1} & \Sigma_{0} \\\end{array}\right].

Два приведенных выше допущения для бесконечного T определяют слабо стационарный процесс. Когда эти два предположения будут выполнены, VAR-модель будет иметь постоянные параметры.

Пусть \{x_t\} — случайный процесс (упорядоченный ряд случайных переменных) для t = \dots,-1,0,1,2,\dots. Тогда \{x_t\} считается стационарным в широком смысле. Стационарность в узком смысле требует, чтобы распределение (x_{t1},\dots,x_{tk}) было таким же, как (x_{t1+h},\dots,x_{tk+h}) для h = \dots,-1,0,1,2,\dots

Эмпирический анализ начинается с матрицы X = [x_1,\dots,x_T], где x_t — это (p \times 1) вектор переменных. Исходя из предположения, что наблюдаемые данные X являются реализацией случайного процесса, можно выразить совместную вероятность X при заданном начальном значении X_0 и значении параметра \theta, описывающего случайный процесс:

P(X|X_0;\theta) = P(x_1,x_2,\dots,x_T|X_0;\theta).

Для данной функции вероятности оценки максимального правдоподобия могут быть найдены путем максимизации функции правдоподобия. Здесь мы ограничимся обсуждением многомерного нормального распределения. Для выражения совместной вероятности X|X_0 удобно использовать процесс Z^{'} = x_1^{'}, x_2^{'}, x_3^{'}, \dots, x_T^{'} \sim N_{Tp}(\mu,\Sigma) вместо (T \times p) матрицы X. Поскольку у \mu размерность Tp \times 1, а у \SigmaTp \times Tp, то параметров гораздо больше, чем наблюдений без упрощения допущений. Но даже если мы вводим упрощающие ограничения на среднее значение и ковариации процесса, они не дают прямой информации об экономическом поведении. Поэтому, разложив совместный процесс на условный и частный, а затем последовательно повторяя разложение для частного процесса, мы можем получить более полезную формулировку:

\begin{align*} 	P(x_1,x_2,\dots,x_T|X_0;\theta) = P(x_T|x_{T-1},\dots,x_1,X_0;\theta)P(x_{T-1},x_{T-2},\dots,x_1|X_0;\theta) = \\ 	\vdots \\ 	= \prod_{t=1}^{T} P(x_t|X_{t-1}^0;\theta), \end{align*}

где

X_{t-1}^0 = [x_{t-1},x_{t-2},\dots,x_1,X_0].

Теперь покажем, что VAR-модель является условным процессом

\{x_t|X_{t-1}^0\} \sim N_p(\mu_t,\Omega).

Можно увидеть, как \mu t и \Omega связаны с \mu и \Sigma. Сначала разложим данные на два набора, вектор x_t и условный набор X_{t-1}^0, то есть

X = \left[\begin{array}{c}	x_t \\	X_{t-1}^0 \\\end{array}\right].

Запишем частный и условный процесс:

y_{1,t} = x_t,m_1 = E[x_t],y_{2,t} = \left[\begin{array}{c}	x_{t-1} \\	x_{t-2} \\	\vdots \\	x_1 \\\end{array}\right],m_2 = \left[\begin{array}{c}	E[x_{t-1}] \\	E[x_{t-2}] \\	\vdots \\	E[x_1] \\\end{array}\right],\tilde \Sigma = \left[\begin{array}{c|ccc}	\Sigma_0 & \Sigma_1^{'} & \dots & \Sigma_{T-1}^{'} \\ \hline	\Sigma_1 & \Sigma_{0} & \Sigma_1^{'} & \vdots \\	\vdots & \ddots & \ddots & \Sigma_1^{'} \\	\Sigma_{T-1} & \dots & \Sigma_1 & \Sigma_0 \\\end{array}\right] = \left[\begin{array}{cc}	\Sigma_{11} & \Sigma_{12} \\	\Sigma_{21} & \Sigma_{22} \\\end{array}\right].

Теперь можно вывести параметры условной модели:

\{x_t|X_{t-1}^0\} \sim N_p(\mu_t,\Sigma_{11.2}),

где

\mu_t = m_1 + \Sigma_{12} \Sigma_{22}^{-1}(X_{t-1}^0 - m_2)

и

\Sigma_{11.2} = \Sigma_{11} - \Sigma_{12} \Sigma_{22}^{-1} \Sigma_{21}.

Разница между наблюдаемым значением процесса и его условным средним значением обозначена как \varepsilon_t:

x_t - \mu_t = \varepsilon_t.

Подставляя выражение для условного среднего значения, получаем:

x_t = m_1 + \Sigma_{12} \Sigma_{22}^{-1}(X_{t-1}^0 - m_2) + \varepsilon_{t},x_t = m_1 - \Sigma_{12} \Sigma_{22}^{-1} m_2 + \Sigma_{12} \Sigma_{22}^{-1} X_{t-1}^0 + \varepsilon_{t}.

Используя обозначение \mu_0 = m_1 - \Sigma_{12} \Sigma_{22}^{-1} m_2, [\Pi_1,\Pi_2,\dots,\Pi_{T-1}] = \Sigma_{12} \Sigma_{22}^{-1} и принимая, что \Pi_{k+1},\Pi_{k+2},\dots,\Pi_{T-1} = 0, получаем векторную авторегрессионную модель k-го порядка:

x_t = \mu_0 + \Pi_1 x_{t-1} + \dots + \Pi_k x_{t-k} + \varepsilon_{t},t = 1,\dots,T

где \varepsilon_{t}NI_p(0,\Omega), а x_0,\dots,x_{k+1} считаются заданными.

Если верно предположение, что X = [x_1,x_2,\dots,x_T] является многомерным нормальным ((\tilde{\mu},\Sigma),\Sigma)процессом, то из этого следует, что VAR-модель:

  • линейна по параметрам;

  • имеет постоянные параметры;

  • имеет нормально распределенные ошибки \varepsilon_{t}.

Обратите внимание, что постоянство параметров зависит от постоянства ковариационных матриц \Sigma_{12} и \Sigma_{22}. Если какая-либо из них изменится в результате преобразования или вмешательства во время анализа выборки, вероятно, изменятся как свободный член \mu_0, так и «коэффициенты наклона» \Pi_1,\dots,\Pi_k. Таким образом, допущения о постоянстве параметров сильно зависят от контекста и обычно требуют, чтобы для соответствующего периода времени моделировались все основные известные структурные изменения.

Было показано, что VAR-модель по сути представляет собой переформулировку ковариаций данных. Вопрос заключается в том, можно ли интерпретировать модель с точки зрения рационального экономического поведения, и если да, то можно ли использовать модель в качестве «плана эксперимента», когда данные собираются путем пассивных наблюдений. Идея заключается в интерпретации условного среднего значения \mu_t VAR-модели как описания планов агентов во время t-1 с учетом имеющейся информации X_{t-1}^0 = [x_{t-1},\dots,x_{t-k}]. В соответствии с допущениями VAR-модели, разница между средним значением и фактической реализацией представляет собой процесс белого шума

\mu_t = E_{t-1}(x_t|x_{t-1},\dots,x_{t-k}) = \mu_0 + \Pi_1 x_{t-1} + \dots + \Pi_k x_{t-k},x_t - \mu_t = \varepsilon_{t},\varepsilon_{t} \sim NI_p(0,\Omega).

Таким образом, допущение NI_p(0,\Omega) согласуется с экономическими агентами, которые рациональны в том смысле, что они не допускают систематических ошибок при составлении планов на время t на основе имеющейся информации в момент времени t-1. Например, VAR-модель с автокоррелированными и/или гетероскедастическими остатками описывает агентов, которые не используют всю информацию, содержащуюся в данных, как можно более эффективно. Это связано с тем, что, включив систематические изменения в остатки, агенты могут повысить точность, с которой они реализуют свои планы. Поэтому проверка предположений модели, то есть проверка остатков на соответствие белому шуму, имеет решающее значение не только для правильного статистического вывода, но и для экономической интерпретации модели как примерного описания поведения рациональных агентов.

К сожалению, во многих экономических приложениях допущение о многомерной нормальности для VAR-модели в ее простейшей форме не выполняется. Поскольку в целом статистические выводы справедливы только в той степени, в какой удовлетворяются предположения, заложенные в основу модели, это потенциально является серьезной проблемой. Поэтому нужно спросить, возможно ли модифицировать базовую VAR-модель таким образом, чтобы она сохраняла свою привлекательность в качестве удобного описания основных свойств данных и в то же время позволяла делать обоснованные выводы.

Исследования в области моделирования показали, что достоверные статистические выводы чувствительны к нарушению некоторых допущений, таких как параметрическая нестабильность, автокорреляция остатков (чем выше, тем хуже) и асимметричные остатки, при этом достаточно устойчивы к другим, таким как избыточный коэффициент эксцесса и гетероскедастичность остатков.

В любом случае, прямое или косвенное тестирование предположений имеет решающее значение для успеха эмпирического применения. Как только мы поймем причины, по которым модель не удовлетворяет допущениям, часто появляется возможность модифицировать модель, чтобы в итоге получить статистически «хорошо себя зарекомендовавшую» модель. Важными инструментами в этом контексте являются:

  • использование интервенционных фиктивных переменных для объяснения значимых политических или институциональных событий в выборке;

  • обусловленность слабо или сильно экзогенными переменными;

  • проверка измерений выбранных переменных;

  • коррекция периода выборки, чтобы избежать структурных изменений или разделить выборку на более однородные периоды.

ECM процесс

Так называемая векторная модель исправления ошибок (далее VECM) дает удобную переформулировку VAR-модели в терминах разностей, запаздывающих разностей и уровней процесса. У этой формулировки есть несколько преимуществ:

  1. Эффект мультиколлинеарности, который обычно сильно проявляется в данных временных рядов, значительно снижается в форме исправления ошибок. Разности гораздо более «ортогональны», чем уровни переменных.

  2. Вся информация о долгосрочных эффектах обобщается в матрице уровней (в дальнейшем обозначена как \Pi). Следовательно, ей можно уделить особое внимание при решении проблемы коинтеграции.

  3. Интерпретация оценок интуитивно более понятна, поскольку коэффициенты можно естественным образом разделить на краткосрочные и долгосрочные эффекты.

  4. Формулировка VECM дает прямой ответ на вопрос, «почему цена актива изменилась с предыдущего по настоящий период в результате изменений в выбранном наборе информации».

Теперь рассмотрим модель VAR(k), сформулированную в общей форме VECM без константы и тренда:

\Delta x_t = \Gamma_1^{(m)} \Delta x_{t-1} + \Gamma_2^{(m)} \Delta x_{t-2} + \dots + \Gamma_{k-1}^{(m)} \Delta x_{t-k+1} + \Pi x_{t-m} + \varepsilon_{t},

где m — целое число между 1 и k, определяющее положение лага ECM-члена. Обратите внимание, что значение функции правдоподобия не меняется даже при изменении значения m.

VAR(2)-модель в VECM формулировке при m=1определена как:

\Delta x_t = \Gamma_1^{(1)} \Delta x_{t-1} + \Pi x_{t-1} + \varepsilon_{t},

где \Pi = - (I - \Pi_1 - \Pi_2), а \Gamma_1^{(1)} = - \Pi_2. В уравнении лагированная матрица уровней \Pi находится во времени t - 1.

CVAR процесс

Рассмотрим нестационарную VAR-модель и покажем, что наличие единичных корней (стохастических трендов) приводит к условию неполного ранга (r < p) на матрице долгосрочных уровней \Pi = \alpha \beta'.

Коинтеграция подразумевает, что определенные линейные комбинации переменных векторного процесса интегрированы более низким порядком, чем сам процесс. Таким образом, если нестационарность одной переменной соответствует нестационарности другой, то существует их линейная комбинация, которая становится стационарной. Другой способ выразить это взаимоотношение заключается в том, что когда две или несколько переменных имеют общие стохастические (и детерминистические) тренды, они будут иметь тенденцию двигаться вместе в долгосрочной перспективе. Такие векторы коинтеграции \beta'x_t часто могут быть интерпретированы как долгосрочные равновесные соотношения переменных и, следовательно, представляют значительный экономический интерес.

В рамках VAR-модели гипотеза о коинтеграции может быть сформулирована в виде ограничения на неполный ранг матрицы \Pi. Воспроизведем ниже VAR(2)-модель в виде ECM с m = 1:

\Delta x_t = \Gamma_1 \Delta x_{t-1} + \Pi x_{t-1} + \varepsilon_{t},

и дадим оценку неограниченной матрице \Pi.

Если X_t \sim I(1), то \Delta x_t \sim I(0). Из этого следует, что \Pi не может иметь полного ранга, так как обратное приведет к логическому несоответствию в уравнении. Рассмотрим \Pi = I как простую матрицу с полным рангом. В этом случае в каждом уравнении стационарная переменная \Delta x_t будет равна нестационарной переменной x_{t-1} плюс некоторые запаздывающие стационарные переменные \Gamma_1 \Delta x_{t-1} и член со стационарной ошибкой. Поскольку стационарная переменная не может быть равна нестационарной переменной, то либо \Pi = 0, либо матрица должна иметь неполный ранг:

\Pi = \alpha \beta',

где \alpha и \beta(p \times r)-матрицы, r \leq p. Таким образом, при гипотезе I(1) имеем коинтегрированную VAR(2)-модель:

\Delta x_t = \Gamma_1 \Delta x_{t-1} + \alpha \beta' x_{t-1} + \varepsilon_{t},

где \beta' x_{t-1}(r \times 1) — вектор коинтеграции. \alpha интерпретируется как скорость приведения процесса к равновесию. В соответствии с гипотезой о том, что x_t \sim I(1), все стохастические компоненты в модели являются стационарными, и система теперь логически непротиворечива.

Если r=p, то x_t стационарно, и применяется стандартный вывод. Если r = 0, то в x_t существует p автономных трендов, так что каждый x_{i,t} является нестационарным со своим собственным индивидуальным трендом. По сути мы имеем VAR-процесс в ряде разностей. В этом случае векторный процесс управляется p различными стохастическими трендами, и невозможно получить векторы коинтеграции между уровнями переменных. Мы говорим, что переменные не имеют общих стохастических трендов и, следовательно, не движутся вместе во времени.

В этом случае VAR-модель с уровнями может быть переформулирована в VAR-модель с разностями без потери долгосрочной информации. Поскольку \Delta x_t \sim I(0) , в модели с разностями применяется стандартный вывод. Если 0 < p < r , то x_t \sim I(1) и существует r направлений, по которым процесс можно сделать стационарным с помощью линейных комбинаций. Это и есть векторы коинтеграции. Причина нашего интереса к ним заключается в том, что они часто могут быть интерпретированы как отклонения от стабильных экономических отношений.

R процесс (консолидация общей VAR модели)

Рассмотрим VAR(k)модель в форме ECM с \Pi = \alpha \beta':

\Delta x_t = \Gamma_1 \Delta x_{t-1} + \dots + \Gamma_{k-1} \Delta x_{t-k+1} + \alpha \beta' \tilde x_{t-1} + \varepsilon_{t},

где t = 1, \dots, T, \tilde x_{t - 1}— это p_1 \times 1вектор, p_1 = p + m, m — количество детерминированных компонент, таких как константа или тренд, а начальные значения x_1, \dots, x_k считаются заданными.

Мы используем следующие сокращенные обозначения:

Z_{0t} = \Delta x_t,\\Z_{1t} = \tilde x_{t - 1},\\Z_{2t} = [\Delta x'_{t -1}, \Delta x'_{t-2}, \dots, \Delta x'_{t - k + 1}],

тогда мы можем переписать VAR(k)модель в более компактной форме:

Z_{0t} = \alpha \beta' Z_{1t} + \Psi Z_{2t} + \varepsilon_t,

где \Psi = [\Gamma_1, \Gamma_2, \dots, \Gamma_{k - 1}]. Теперь мы консолидируем краткосрочные «транзитные» эффекты, \Psi Z_{2t}, чтобы получить «чистую» модель долгосрочной коррекции. Чтобы объяснить идею «консолидации», которая используется во многих различных ситуациях в эконометрике, мы сначала проиллюстрируем ее использование в модели множественной регрессии.

Теорема Фриша-Во-Ловела (Frisch-Waugh-Lovell, FWL) гласит, что OLS-оценка \beta_{2.1} в модели линейной регрессии, y_t = \beta_{1.2} x_{1t} + \beta_{2.1} x_{2t} + \varepsilon_t может быть получена в два этапа.

  1. Построить регрессию y_tот x_{1t}, получая остатки u_{1t}из y_t = \hat b_1 x_{1t} + u_{1t}.
    Построить регрессию x_{2t}от x_{1t}, получая остатки u_{2t}из x_{2t} = \hat b_2 x_{1t} + u_{2t}.

  2. Построить регрессию u_{1t}от u_{2t}, чтобы получить оценку \beta_{2.1}, то есть u_{1t} = \beta_{2.1} u_{2t} + error.

Таким образом сначала мы консолидируем влияние x_{1t}на y_tи x_{2t}, а затем строим регрессию для «очищенного» y_t, то есть u_{1t}, от «очищенного» x_{2t}, то есть u_{2t}.

Воспользуемся той же идеей для VAR-модели. Сначала определим вспомогательные регрессии:

Z_{0t} = \hat B'_1 Z_{2t} + R_{0t},\\Z_{1t} = \hat B'_2 Z_{2t} + R_{1t},

где \hat B'_1 = M_{02} M^{-1}_{22}, \hat B'_2 = M_{12} M^{-1}_{22} — МНК оценки, M_{ij} = \Sigma_t(Z_{it} Z'_{jt})/T. Таким образом, это эмпирические аналоги ковариационных матриц \Sigma_{ij}.

Консолидированная модель

R_{0t} = \alpha \beta' R_{1t} + error

важна для понимания как статистических, так и экономических свойств VAR-модели. Путем консолидации исходная «грязная» VAR, содержащая краткосрочные эффекты коррекции и интервенции, была преобразована в «чистую» равновесную форму коррекции, в которой коррекция происходит исключительно в направлении долгосрочных равновесных отношений. Это означает, что мы не только преобразовали «грязную» эмпирическую модель в красивую статистическую модель, но и в более интерпретируемую экономическую форму.

Тест Йохансена

Тест Йохансена, также называемый LR-тестом на коинтеграционный ранг или тестом следа (трейс тестом), основан на VAR-модели в R-форме, где сконцентрирована вся краткосрочная динамика, фиктивные и другие детерминированные компоненты:

R_{0t} = \alpha \beta' R_{1t} + error.

Тест Йохансена называется тестом следа, потому что асимптотическое распределение статистики является следом матрицы, основанной на функциях броуновского движения или стандартных винеровских процессах. Тест Йохансена для определения ранга коинтеграции r включает следующие гипотезы:

Соответствующая LR-статистика имеет вид (статистика следа):

\tau_{p-r} = -T \sum_{i = r + 1}^p \ln (1 - \lambda_{i}),

где \lambda_{i} можно интерпретировать как квадрат канонических корреляций между линейной комбинацией уровней \beta'_i R_{1t-1} и линейной комбинацией разностей w'_i R_{0t}. В этом смысле величина \lambda_i является показателем того, насколько сильно линейное отношение \beta'_i R_{1t-1} коррелирует со стационарной частью процесса R_{0t} . Когда \lambda_i = 0 , линейная комбинация нестационарна и не существует поправки на равновесие.

Процедура тестирования заключается в следующем. Сначала проверяется нулевая гипотеза о том, что существует один вектор коинтеграции, затем гипотеза о двух векторах и т.д. Мы отвергаем нулевую гипотезу, что r— число векторов коинтеграции — меньше чем p, если значение статистического критерия больше указанного критического значения.

Также возможна проверка нулевой гипотезы против альтернативной о том, что ранг на единицу больше, чем предполагается в нулевой гипотезе:

  • H(r): rank = r ;

  • H(r + 1): rank = r + 1 .

В таком случае применяется статистика максимального собственного числа:

\tau_{p-r} = -T \ln (1 - \lambda _{r+1}).

Пример: преобразование VAR(3) в ECM

Возьмем в качестве примера VAR(3) процесс:

x_{1,t} = a_1 x_{1,t-1} + a_2 x_{1,t-2} + a_3 x_{1,t-3} + b_1 x_{2,t-1} + b_2 x_{2,t-2} + b_3 x_{2,t-3} + \varepsilon_{1,t},\\x_{2,t} = c_1 x_{1,t-1} + c_2 x_{1,t-2} + c_3 x_{1,t-3} + d_1 x_{2,t-1} + d_2 x_{2,t-2} + d_3 x_{2,t-3} + \varepsilon_{2,t}.

Это достаточно сложное уравнение может быть выражено в матричной форме (опустим вектор с ошибками для краткости):

\left[\begin{array}{c}	x_{1,t} \\	x_{2,t} \\\end{array}\right] = \left[\begin{array}{cc}	a_1 & b_1 \\	c_1 & d_1 \\\end{array}\right] \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + \left[\begin{array}{cc}	a_2 & b_2 \\	c_2 & d_2 \\\end{array}\right] \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \left[\begin{array}{cc}	a_3 & b_3 \\	c_3 & d_3 \\\end{array}\right] \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right],\left[\begin{array}{c}	x_{1,t} \\	x_{2,t} \\\end{array}\right] = \Pi_1 \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + \Pi_2 \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right] + \left[ \begin{array}{c} 	\varepsilon_{1,t} \\ 	\varepsilon_{2,t} \\ \end{array} \right].

Далее мы должны преобразовать модель через разности. Это можно сделать следующим образом. Во-первых, мы вычитаем

\left[ \begin{array}{c} 	x_{1,t-1} \\ 	x_{2,t-1} \\ \end{array} \right]

из обеих частей уравнения, преобразуя левую сторону уравнения в разности:

\left[\begin{array}{c}	x_{1,t} \\	x_{2,t} \\\end{array}\right] - \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] = \Pi_1 \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] - \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + \Pi_2 \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right],\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + \Pi_2 \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right] + \left[ \begin{array}{c} 	\varepsilon_{1,t} \\ 	\varepsilon_{2,t} \\ \end{array} \right].

Мы можем преобразовать это выражение следующим образом:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + (\Pi_2 + \Pi_1 - I - (\Pi_1 - I)) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \\ + \Pi_3 \cdot \left[ \begin{array}{c} 	x_{1,t-3} \\ 	x_{2,t-3} \\ \end{array} \right].

Открывая скобки, получаем:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] - (\Pi_1 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \\ + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Группируем члены с общими множителями:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left(\left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] - \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right]\right) + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \\ + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

В результате получим выражение:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Схожая процедура применяется по отношению к матрице \Pi_3:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \\ + (\Pi_3 + \Pi_1 + \Pi_2 - I - (\Pi_1 + \Pi_2 - I)) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Открывая скобки, получаем:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] +\\ + (\Pi_1 + \Pi_2 + \Pi_3 - I) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right] - (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Группируем члены с общими множителями:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left( \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] - \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right] \right) + \\ + (\Pi_1 + \Pi_2 + \Pi_3 - I) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

В результате получаем:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-2} \\	\Delta x_{2,t-2} \\\end{array}\right] + \\ + (\Pi_1 + \Pi_2 + \Pi_3 - I) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Обозначим \Gamma_1^{(3)} = \Pi_1 - I, \Gamma_2^{(3)} = \Pi_1 + \Pi_2 - I, \Pi = \Pi_1 + \Pi_2 + \Pi_3 - I, получим VAR(3) модель в ECM форме:

\Delta x_t = \Gamma_1^{(3)} \Delta x_{t-1} + \Gamma_2^{(3)} \Delta x_{t-2} + \Pi x_{t-3} + \varepsilon_t.

Мы видим, что VAR-процесс уровней рядов может быть записан как VAR-процесс разностей за исключением одного члена \Pi x_{t-3}.

Ранг матрицы \Pi дает число векторов коинтеграции в рядах динамики (ранг матрицы — это число линейно независимых рядов). Таким образом, ранг матрицы говорит о том, что следует делать. Если \Pi имеет нулевой ранг, то матрица \Pi — нулевая. Это показывает, что коинтеграции в рядах данных нет, и для достижения стационарности требуется нахождение разностей.

Если матрица \Pi — полная, то ряды уже стационарны (матрица \Pi имеет обратную, и, таким образом, выражение может быть решено для уровней, выраженных в разностях. Это будет верным только если ряды уровней I(0)).

Если ранг \Pi лежит между 0 и p ( 0<r<p, в нашем случае p = 2, r = 1), то существует p векторов коинтеграции. Модель исправления ошибки включает в себя краткосрочные изменения, которые поддерживают долгосрочное равновесие.

Тест Йохансена в MATLAB

У нас есть два ряда цен акций, x_1и x_2. Мы хотим, чтобы x_1и x_2были коинтегрированными, то есть чтобы ранг коинтеграции был равен 1. Рассмотрим два тикера Московской биржи, TATN (y) и TATNP (x) за 2020 год:

y_t = 1.0478 x_t + \varepsilon_t.

Динамика цен акций TATN и TATNP

Динамика цен акций TATN и TATNP

Тест Йохансена выполняется с помощью функции jcitest, которая на вход принимает массив из временных рядов, в данном случае размера n \times 2, где n — количество торговых дней. На выходе функция возвращает логическое значение, равное 1, если нулевая гипотеза отвергается в пользу альтернативной, и 0 – иначе.

testPrices(:,1) = prices(:,indexY);
testPrices(:,2) = prices(:,indexX);
[hjt,pValuejt,statjt,cValuejt,mles] = jcitest(testPrices, 'model', 'H2');
[hjtm,pValuejtm,statjtm,cValuejtm,mlesm] = jcitest(testPrices, 'model', 'H2', 'test', 'maxeig');

Статистика следа

Дальше начинается самое интересное: программа выдает ответ, который обычному человеку сложно понять, потому что он приходит в виде массива логических значений.

Результат теста Йохансена для статистики следа

Результат теста Йохансена для статистики следа

Википедия нас к такому не готовила, поэтому давайте разберемся, что здесь происходит. Гипотетически тест следа может привести к трем различным вариантам ранга коинтеграции и, следовательно, количествам единичных корней.

  1. p - r = 2, r = 0, когда \tau_2 \leq C_2

  2. p - r = 1, r = 1, когда \tau_2 > C_2, \tau_1 \leq C_1

  3. p - r = 0, r = 2, когда \tau_2 > C_2, \tau_1 > C_1

где \tau_{p - r} — статистика следа, C_{p - r}— соответствующие критические значения, p в нашем случае равно 2, так как у нас две переменные, y (TATN) и x (TATNP). Поэтому, чтобы оценить значение r , мы должны выполнить последовательность тестов.

Отметим, что асимптотические таблицы определяются так, что когда H_r истинна, тогда P_{p - r} (\tau_{p - r} \leq C_{0.95} (p - r)) = 0.95, где \tau_{p - r} задается как:

\tau_{p-r} = -T \sum_{i = r + 1}^p \ln (1 - \lambda_{i}).

Рассмотрим результат теста для нулевого ранга. В чем здесь заключается нулевая гипотеза?

Из ответа матлаба мы видим, что нулевая гипотеза отвергается для нулевого ранга ( h = 1для r = 0). Это означает, что P_1 (\tau_2 \leq C_2) \rightarrow 0 асимптотически.

Рассмотрим результат теста для первого ранга. В чем здесь заключалась нулевая гипотеза?

Следующее значение p - r = 1 соответствует r = 1, истинному коинтеграционному числу, а P_1 (\tau_1 \leq C_1) \rightarrow 0.95 в соответствии с ответом матлаба о том, что нулевая гипотеза не отвергается для первого ранга ( h = 0 для r = 1). Таким образом последний вариант P_1 (p - r = 0) \rightarrow \leq 0.05.

Резюмируем:

  • P_1 (p - r = 2, r = 0) = P_1 (\tau_2 \leq C_2) \rightarrow 0

  • P_1 (p - r = 1, r = 1) = P_1 (\tau_2 > C_2, \tau_1 \leq C_1) \rightarrow 0.95

  • P_1 (p - r = 0, r = 2) = P_1 (\tau_2 > C_2, \tau_1 > C_1) \rightarrow p_0 \leq 0.05

Таким образом правильное значение r асимптотически принимается в 95% всех случаев, что как раз и должна делать процедура 5%-ного теста.

Статистика максимального собственного числа

Практически тот же самый результат мы видим для статистики максимального собственного числа.

Результат теста Йохансена для статистики максимального собственного числа

Результат теста Йохансена для статистики максимального собственного числа

Здесь у нас есть следующие варианты:

где \tau_{p - r} — статистика максимального собственного числа, C_{p - r}— соответствующие критические значения.

Напомним, что \tau_{p - r} задается как:

\tau_{p-r} = -T \ln (1 - \lambda _{r+1}).

Рассмотрим результат теста для нулевого ранга. В чем здесь заключается нулевая гипотеза?

  • H(0): rank = 0

  • H(1): rank = 1

  • P_1 (r = 0) = P_1 (\tau_2 \leq C_2)

Из ответа матлаба мы видим, что нулевая гипотеза отвергается для нулевого ранга ( h = 1для r = 0). Это означает, что P_1 (\tau_2 \leq C_2) \rightarrow 0 асимптотически.

Рассмотрим результат теста для первого ранга. В чем здесь заключалась нулевая гипотеза?

  • H(1): rank = 1

  • H(2): rank = 2

  • P_1 (r = 1) = P_1 (\tau_1 \leq C_1)

Следующее значение r = 1 соответствует истинному коинтеграционному числу, а P_1 (\tau_1 \leq C_1) \rightarrow 0.95 в соответствии с ответом матлаба о том, что нулевая гипотеза не отвергается для первого ранга ( h = 0 для r = 1).

По результатам обеих статистик мы видим, что пара (TATN, TATNP) является коинтегрированной.

Тест Энгла-Грэнджера vs Тест Йохансена

Мной была проанализирована 1 621 пара акций Московской биржи за 2020 год на дневных данных. В 87% случаев результаты теста Энгла-Гренджера и теста Йохансена совпали.

Также было проанализировано 3 193 890 пар на американских биржах (NYSE, NASDAQ и AMEX) за 2020 год на дневных данных. Также в 87% случаев результаты теста Энгла-Гренджера и теста Йохансена совпали.

Еще было проанализировано 21 725 пар на криптобиржах (Poloniex, Binance, Kraken) за 2020 год на дневных данных. В 86% случаев результаты теста Энгла-Гренджера и теста Йохансена совпали.

С практической точки зрения для принятия решения о том, стоит ли добавлять пару активов в портфель, а также для оценки весовых коэффициентов лучше использовать оба теста на коинтеграцию.

with tags

r

vec

cointegration

vars

urca

tsDyn




One of the prerequisits for the estimation of a vector autoregressive (VAR) model is that the analysed time series are stationary. However, economic theory suggests that there exist equilibrium relations between economic variables in their levels, which can render these variables stationary without taking differences. This is called cointegration. Since knowing the size of such relationships can improve the results of an analysis, it would be desireable to have an econometric model, which is able to capture them. So-called vector error correction models (VECMs) belong to this class of models. The following text presents the basic concept of VECMs and guides through the estimation of such a model in R.

Model and data

Vector error correction models are very similar to VAR models and can have the following form:

\[\Delta x_t = \Pi x_{t-1} + \sum_{l = 1}^{p-1} \Gamma_l \Delta x_{t-l} + C d_t + \epsilon_t,\]
where \(\Delta x\) is the first difference of the variables in vector \(x\), \(Pi\) is a coefficient matrix of cointegrating relationships, \(\Gamma\) is a coefficient matrix of the lags of differenced variables of \(x\), \(d\) is a vector of deterministic terms and \(C\) its corresponding coefficient matrix. \(p\) is the lag order of the model in its VAR form and \(\epsilon\) is an error term with zero mean and variance-covariance matrix \(\Sigma\).

The above equation shows that the only difference to a VAR model is the error correction term \(\Pi x_{t-1}\), which captures the effect of how the growth rate of a variable in \(x\) changes, if one of the variables departs from its equilibrium value. The coefficient matrix \(\Pi\) can be written as the matrix product \(\Pi = \alpha \beta^{\prime}\) so that the error correction term becomes \(\alpha \beta^{\prime} x_{t-1}\). The cointegration matrix \(\beta\) contains information on the equilibrium relationships between the variables in levels. The vector described by \(\beta^{\prime} x_{t-1}\) can be interpreted as the distance of the variables form their equilibrium values. \(\alpha\) is a so-called loading matrix describing the speed at which a dependent variable converges back to its equilibrium value.

Note that \(\Pi\) is assumed to be of reduced rank, which means that \(\alpha\) is a \(K \times r\) matrix and \(\beta\) is a \(K^{co} \times r\) matrix, where \(K\) is the number of endogenous variables, \(K^{co}\) is the number of variables in the cointegration term and \(r\) is the rank of \(\Pi\), which describes the number of cointegrating relationships that exist between the variables. Note that if \(r = 0\), there is no cointegration between the variables so that \(\Pi = 0\).

To illustrate the estimation of VECMs in R, we use dataset E6 from Lütkepohl (2007), which contains quarterly, seasonally unadjusted time series for German long-term interest and inflation rates from 1972Q2 to 1998Q4. It comes with the bvartools package.

library(bvartools) # Load the package, which contains the data
data("e6") # Load data
plot(e6) # Plot data

Estimation

There are multiple ways to estimate VEC models. A first approach would be to use ordinary least squares, which yields accurate result, but does not allow to estimate the cointegrating relations among the variables. The estimated generalised least squares (EGLS) approach would be an alternative. However, the most popular estimator for VECMs seems to be the maximum likelihood estimator of Johansen (1995), which is implemented in R by the ca.jo function of the urca package of Pfaff (2008a). Alternatively, function VECM of the tsDyn package of Di Narzo et al. (2020) can be used as well.1

But before the VEC model can be estimated, the lag order \(p\), the rank of the cointegration matrix \(r\) and deterministic terms have to be specified. A valid strategy to choose the lag order is to estimated the VAR in levels and choose the lag specification that minimises an Information criterion. Since the time series show strong seasonal pattern, we control for this by specifying season = 4, where 4 is the frequency of the data.

library(vars) # Load package

# Estimate VAR
var_aic <- VAR(e6, type = "const", lag.max = 8, ic = "AIC", season = 4)

# Lag order suggested by AIC
var_aic$p
## AIC(n) 
##      4

According to the AIC, a lag order of 4 can be used, which is the same value used in Lütkepohl (2007). This means the VEC model corresponding to the VAR in levels has 3 lags. Since the ca.jo function requires the lag order of the VAR model we set K = 4.2

The inclusion of deterministic terms in a VECM is a delicate issue. Without going into detail a common strategy is to add a linear trend to the error correction term and a constant to the non-cointegration part of the equation. For this example we follow Lütkepohl (2007) and add a constant term and seasonal dummies to the non-cointegration part of the equation.

The ca.jo function does not just estimate the VECM. It also calculates the test statistics for different specificaions of \(r\) and the user can choose between two alternative approaches, the trace and the eigenvalue test. For this example the trace test is used, i.e. type = "trace".

By default, the ca.jo function sets spec = "longrun" This specification would mean that the error correction term does not refer to the first lag of the variables in levels as decribed above, but to the \(p-1\)th lag instead. By setting spec = "transitory" the first lag will be used instead. Further information on the interpretation the two alternatives can be found in the function’s documentation ?ca.jo.

For further details on VEC modelling I recommend Lütkepohl (2006, Chapters 6, 7 and 8).

library(urca) # Load package

# Estimate
vec <- ca.jo(e6, ecdet = "none", type = "trace",
             K = 4, spec = "transitory", season = 4)

summary(vec)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: trace statistic , with linear trend 
## 
## Eigenvalues (lambda):
## [1] 0.15184737 0.03652339
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 1 |  3.83  6.50  8.18 11.65
## r = 0  | 20.80 15.66 17.95 23.52
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##            R.l1    Dp.l1
## R.l1   1.000000 1.000000
## Dp.l1 -3.961937 1.700513
## 
## Weights W:
## (This is the loading matrix)
## 
##            R.l1       Dp.l1
## R.d  -0.1028717 -0.03938511
## Dp.d  0.1577005 -0.02146119

The trace test suggests that \(r=1\) and the first columns of the estimates of the cointegration relations \(\beta\) and the loading matrix \(\alpha\) correspond to the results of the ML estimator in Lütkepohl (2007, Ch. 7):

# Beta
round(vec@V, 2)
##        R.l1 Dp.l1
## R.l1   1.00   1.0
## Dp.l1 -3.96   1.7
# Alpha
round(vec@W, 2)
##       R.l1 Dp.l1
## R.d  -0.10 -0.04
## Dp.d  0.16 -0.02

However, the estimated coefficients of the non-cointegration part of the model correspond to the results of the EGLS estimator.

round(vec@GAMMA, 2)
##      constant  sd1  sd2  sd3 R.dl1 Dp.dl1 R.dl2 Dp.dl2 R.dl3 Dp.dl3
## R.d      0.01 0.01 0.00 0.00  0.29  -0.16  0.01  -0.19  0.25  -0.09
## Dp.d    -0.01 0.02 0.02 0.03  0.08  -0.31  0.01  -0.37  0.04  -0.34

The deterministic terms are different from the results in Lütkepohl (2006), because different reference dates are used.

Using the the tsDyn package, estimates of the coefficients can be obtained in the following way:

# Load package
library(tsDyn)

# Obtain constant and seasonal dummies
seas <- gen_vec(data = e6, p = 4, r = 1, const = "unrestricted", seasonal = "unrestricted")
# Lag order p is 4 since gen_vec assumes that p corresponds to VAR form
seas <- seas$data$X[, 7:10]

# Estimate
est_tsdyn <- VECM(e6, lag = 3, r = 1, include = "none", estim = "ML", exogen = seas)

# Print results
summary(est_tsdyn)
## #############
## ###Model VECM 
## #############
## Full sample size: 107    End sample size: 103
## Number of variables: 2   Number of estimated slope parameters 22
## AIC -2142.333    BIC -2081.734   SSR 0.005033587
## Cointegrating vector (estimated by ML):
##    R        Dp
## r1 1 -3.961937
## 
## 
##             ECT                R -1               Dp -1              
## Equation R  -0.1029(0.0471)*   0.2688(0.1062)*    -0.2102(0.1581)    
## Equation Dp 0.1577(0.0445)***  0.0654(0.1003)     -0.3392(0.1493)*   
##             R -2                Dp -2              R -3              
## Equation R  -0.0178(0.1069)     -0.2230(0.1276).   0.2228(0.1032)*   
## Equation Dp -0.0043(0.1010)     -0.3908(0.1205)**  0.0184(0.0975)    
##             Dp -3               const              season.1          
## Equation R  -0.1076(0.0855)     0.0015(0.0038)     0.0015(0.0051)    
## Equation Dp -0.3472(0.0808)***  0.0102(0.0036)**   -0.0341(0.0048)***
##             season.2           season.3           
## Equation R  0.0089(0.0053).    -0.0004(0.0051)    
## Equation Dp -0.0179(0.0050)*** -0.0164(0.0048)***

Impulse response analyis

The impulse response function of a VECM is usually obtained from its VAR form. The function vec2var of the vars package can be used to transform the output of the ca.jo function into an object that can be handled by the irf function of the vars package. Note that since ur.jo does not set the rank \(r\) of the cointegration matrix automatically, it has to be specified manually.

# Transform VEC to VAR with r = 1
var <- vec2var(vec, r = 1)

The impulse response function is then calculated in the usual manner by using the irf function.

# Obtain IRF
ir <- irf(var, n.ahead = 20, impulse = "R", response = "Dp",
          ortho = FALSE, runs = 500)

# Plot
plot(ir)

Note that an important difference to stationary VAR models is that the impulse response of a cointegrated VAR model does not neccessarily approach zero, because the variables are not stationary.

References

Lütkepohl, H. (2006). New introduction to multiple time series analysis (2nd ed.). Berlin: Springer.

Di Narzo, A. F., Aznarte, J. L., Stigler, M., &and Tsung-wu, H. (2020). tsDyn: Nonlinear Time Series Models with Regime Switching. R package version 10-1.2. https://CRAN.R-project.org/package=tsDyn

Pfaff, B. (2008a). Analysis of Integrated and Cointegrated Time Series with R. Second Edition. New York: Springer.

Pfaff, B. (2008b). VAR, SVAR and SVEC Models: Implementation Within R Package vars. Journal of Statistical Software 27(4).

Модель коррекции вектора ошибок (MCVE) — это расширение модели VAR, которое включает добавление поправочного члена. запаздывающей ошибки авторегрессии, чтобы сделать оценку с учетом коинтеграции двух переменные.

Другими словами, модель MCVE включает коинтеграцию с использованием члена исправления ошибок в качестве новой независимой переменной в модели VAR.

Таким образом, мы можем сделать оценки зависимой переменной с учетом ее запаздывающих значений, запаздывающие значения другой переменной и запаздывающий член исправления ошибок (эффект коинтеграция).

Рекомендуемые статьи: коинтеграция, Модель VAR, авторегрессионная модель.

Коинтеграция 

Коинтеграция двух случайных величин — это наличие общего стохастического тренда. Другими словами, переменные, несмотря на то, что они случайный они разделяют тенденцию. Например, в заданный период времени может случиться так, что одна переменная растет, а другая тоже растет. То же и в обратном случае.

Наличие коинтеграции не означает, что переменные растут или падают в одних и тех же относительных единицах, а скорее, что существует неоднородная дисперсия между переменными.

Срок исправления ошибок 

Срок исправления ошибок или коэффициент коинтеграции говорит нам, есть ли коинтеграция визуально и неточно. Чтобы принять такое решающее решение, рекомендуется использовать статистику, например, контраст EG-ADF.

Математически мы определяем переменную Xт и Yт как две случайные величины, которые следуют стандартному нормальному распределению вероятностей среднего 0 и дисперсии 1.

Тогда наличие коинтеграции означает, что 

Скриншот 2019 08 02 at Les 13.25.31
Срок исправления ошибок.

это интегрированный класс 0.

Параметр d — коэффициент коинтеграции. Этот коэффициент получен с учетом того, что необходимо устранить общую тенденцию разницы.

Используемые эконометрические методы представляют собой комбинацию обобщенных наименьших квадратов с Контраст Дики-Фуллера.

Другими словами, если мы видим, что разница между двумя сериями не соответствует какой-либо четкой тенденции, мы определяем, что Коинтеграция между двумя переменными — это степень 1, а член исправления ошибок — это степень интегрирования. 0.

Схематично

  • Если мы видим тенденцию между двумя переменными => проверьте разницу => разница не соответствует четкой тенденции => срок исправление ошибки — интегрирование степени 0 => существует коинтеграция между двумя переменными (интегрирование степени 1).
  • Мы не видим тенденции между двумя переменными => проверьте разницу => разницу, если есть четкая тенденция => срок исправление ошибки — интегрирование степени 1 => нет никакой коинтеграции между двумя переменными (интегрирование степени 0).

Формула модели VAR (p, q):

В основе MCVE лежит модель векторной авторегрессии (VAR):

Скриншот 2019 08 02 At Les 13.26.15
Уравнение векторной модели авторегрессии (VAR).

Чтобы преобразовать модель VAR в модель MCVE, мы должны:

  • Добавьте срок исправления ошибки с задержкой на один период:
Скриншот 2019 08 02 А Лес 13.26.29
Отставание срока исправления ошибок на один период.
  • Добавьте знак приращения к запаздывающим независимым переменным, чтобы указать на то, что мы применяем первую разницу.

Скриншот 2019 08 02 At Les 13.28.05

Формула модели MCVE с двумя переменными

Тогда MCVE двух переменных Xт и Yт (когда k = 2) составляет:

Скриншот 2019 08 02 At Les 13.28.46

Уравнение модели MCVE при k = 2.

Теоретический пример

Можем ли мы определить, что существует коинтеграция между доходностью акций AlpineSki и акций NordicSki? О чем-то говорит нам разница в абсолютном значении между AlpineSki и NordicSki (| A-N |)?

Скриншот 2019 08 02 at Les 13.29.34
График производительности AlpineSki и NordicSki.

Ваш электронный адрес не будет опубликован. Обязательные поля отмечены *

Понравилась статья? Поделить с друзьями:
  • Многословие примеры ошибок
  • Многослойный персептрон алгоритм обратного распространения ошибки
  • Мод раннер ошибка could not load config
  • Могут ли быть ошибки при проверке егэ
  • Мод ошибка человека