Cointégration : Définition, exemples, tests

Share on

Time Plot >

Vous pouvez lire cet article en premier : Qu’est-ce que l’ordre d’intégration ?

Les tests de cointégration analysent les séries temporelles non stationnaires – des processus dont les variances et les moyennes varient dans le temps. En d’autres termes, la méthode permet d’estimer les paramètres à long terme ou l’équilibre dans les systèmes avec des variables à racine unitaire (Rao, 2007).

Deux ensembles de variables sont cointégrés si une combinaison linéaire de ces variables a un ordre d’intégration inférieur. Par exemple, la cointégration existe si un ensemble de variables I(1) peut être modélisé par des combinaisons linéaires qui sont I(0). L’ordre d’intégration ici – I(1) – vous indique qu’un seul ensemble de différences peut transformer les variables non stationnaires en stationnarité. Bien que l’observation d’un graphique puisse parfois vous indiquer si vous avez un processus I(1), vous devrez peut-être exécuter un test tel que le test KPSS ou le test de Dickey-Fuller augmenté pour le déterminer.

Contexte

Pour analyser des séries temporelles avec des méthodes classiques comme les moindres carrés ordinaires, on fait une hypothèse : Les variances et les moyennes des séries sont des constantes indépendantes du temps (c’est-à-dire que les processus sont stationnaires). Les séries temporelles non stationnaires (ou variables à racine unitaire) ne répondent pas à cette hypothèse, de sorte que les résultats de tout test d’hypothèse seront biaisés ou trompeurs. Ces séries doivent être analysées à l’aide de différentes méthodes. Une de ces méthodes est appelée la cointégration.

Plus formellement, la cointégration est lorsque deux séries temporelles I(1) xt et yt peuvent être décrites par le processus stationnaire
ut = yt – αxt.

Tests de cointégration

Les tests de cointégration identifient des relations stables et à long terme entre des ensembles de variables. Cependant, Rao (2007) note que si le test ne parvient pas à trouver une telle relation, ce n’est pas une preuve qu’il n’en existe pas – cela suggère seulement qu’il n’en existe pas.

Trois des tests les plus populaires sont :


  1. Engle-Granger
  2. Phillips-Ouliaris
  3. Test de Johansen

Engle-Granger

La méthode d’Engle-Granger construit d’abord des résidus (erreurs) basés sur la régression statique.Les résidus sont testés pour la présence de racines unitaires en utilisant ADF ou un test similaire. Si la série chronologique est cointégrée, les résidus seront pratiquement stationnaires. Un problème majeur de la méthode d’Engle-Granger est que le choix de la variable dépendante peut conduire à des conclusions différentes (Armstrong, 2001), un problème corrigé par des tests plus récents comme ceux de Phillips-Ouliaris et de Johansen.

H0 : Il n’existe pas de cointégration
H1 : Il existe une cointégration

Ce test est généralement effectué par des logiciels tels que MATLAB ou STAT (en utilisant la commande egranger).

En R, téléchargez le code « adf.R » trouvé ici sur le site de l’Université de l’Illinois. Un aperçu des étapes se trouve ici (faites défiler jusqu’à Cointégration : Test d’Engle-Granger) ; vous aurez besoin de ce tableau de valeurs critiques pour le test d’Engle-Granger.

Phillips-Ouliaris

Le test de Philips-Ouliaris (1990) est un test de racine unitaire basé sur les résidus. C’est une amélioration du test d’Engle-Ganger ; Avant 1987, les tests de cointégration fonctionnaient sur l’hypothèse que les erreurs de régression sont indépendantes avec une variance commune – ce qui est rarement vrai dans la vie réelle (Chaovalitwongse et. al, 2010).

H0 : Il n’existe pas de cointégration
H1 : Il existe une cointégration

Le test de Philips-Ouliaris prend en compte la variabilité supplémentaire (provenant du fait que les résidus sont des estimations au lieu des valeurs réelles des paramètres). Les tests sont également invariants à la normalisation de la relation de cointégration (c’est-à-dire quelle variable est comptée comme variable dépendante).


Test de Johansen

Le test de Johansen est une autre amélioration du test d’Engle-Granger. Il évite le problème du choix d’une variable dépendante ainsi que les problèmes créés lorsque les erreurs sont reportées d’une étape à l’autre. En tant que tel, le test peut détecter de multiples vecteurs de cointégration.

Armstrong, J. Principles of Forecasting : A Handbook for Researchers and Practitioners. Springer Science & Business Media
Chaovalitwongse, W. et. al (2010). Computational Neuroscience. Springer Science & Business Media.
Engle, R. F., et C. W. J. Granger. 1987. Co-intégration et correction des erreurs : Représentation, estimation et test. Econometrica 55 : 251-276.
Granger, C. ; Newbold, P. (1974). Spurious Regressions in Econometrics. Journal of Econometrics. 2 (2) : 111-120. doi:10.1016/0304-4076(74)90034-7
P. C. B. Phillips et S. Ouliaris (1990) : Asymptotic Properties of Residual Based Tests for Cointegration. Econometrica 58, 165-193.
Rao, B. (2007). Cointegration : pour l’économiste appliqué, Springer.

CITEZ CE QUI SUIT :
Stephanie Glen. « Cointégration : Définition, exemples, tests » de StatisticsHowTo.com : Des statistiques élémentaires pour le reste d’entre nous ! https://www.statisticshowto.com/cointegration/

——————————————————————————

Vous avez besoin d’aide pour un devoir ou une question de test ? Avec Chegg Study, vous pouvez obtenir des solutions étape par étape à vos questions de la part d’un expert dans le domaine. Vos 30 premières minutes avec un tuteur Chegg sont gratuites !

Leave a Reply