Analyse de Régression Linaire Simple avec MATLAB : Implémentation du MEDAF

Le modèle de régression est très utilisé en science sociale et subséquemment en économie – finance, notamment sous sa forme linéaire. Sans doute à cause de sa simplicité et de l’aisance de son interprétation. En effet, elle permet de mettre en relation une variable dite variable dépendante en fonction d’autres variables dites variables indépendantes. En l’occurrence, nous allons nous intéresser au cas d’une variable indépendante, c’est-à-dire que, nous verrons comment expliquer une variable par une autre d’où le qualificatif simple. 

C’est en vue de l’implémentation du Modèle d’Évaluation des Actifs Financiers (MEDAF) avec MATLAB, que nous allons notamment voir en toute rigueur comment la forme simple de la régression linéaire est dérivé,  comment ses paramètres sont estimés et enfin comment évaluer la pertinence d’un tel model.

Model de régression linéaire simple

Formulation et hypothèses

Nous voulons donc ajuster la distribution du couple de variables (x,y) à une fonction sous la forme suivante :
$$ \begin{equation}y = \alpha + \beta x + \epsilon \end{equation}$$   y : variable dépendante,variable de réponse, variable expliquée…
 x : variable indépendante, variable de contrôle, variable explicative ..
 \epsilon : terme d’erreur ou perturbation
 \alpha : ordonnée à l’origine
 \beta : le coefficient directeur ou la pente de la droite de régression. En effet, quand  x  augmente d’une unité,  y augmente/diminue de  \beta.
Remarquons que  y et  x sont des variables aléatoires mais observables sur la base d’un échantillon donné, par contre  \alpha et  \beta sont estimés sous certaines conditions. Il nous reste  \epsilon qui est sensé capturer la partie de  y non expliquée par  x.
Parmi les hypothèses sur les quelles sont basées ce modèle, on note notamment que :

  • – Linéarité : ceci revient à dire que le facteur de variation de la variable expliquée suite à une variation de la variable explicative est constant peu importe le niveau déjà atteint par cette dernière. Mathématiquement parlant c’est vérifier que la dérivée de  \frac{\partial y}{\partial x} = \beta , qui est une constante.
  • – Normalité : le Terme d’erreur  \epsilon suit une loi normal de moyenne nulle  \bar{\epsilon}=0 et de variance  \sigma_{\epsilon}^{2}.
  • – Homoscédasticité : cette hypothèse traduit le fait que la variance doit rester constante et que la covariance entre les termes d’erreurs consécutifs dans le cas de séries temporelles est nulle.

Estimation par la méthode des moindres carrés ordinaires

En supposant que la relation entre y et x peut être décrite par un modèle linéaire simple, nous allons utiliser la méthode des moindres carrés ordinaires(MCO) pour déterminer les estimateurs des coefficients  \alpha et  \beta . Sans trop tarder sur les détails statistiques relatifs aux estimateurs, la MCO, nous apprend que les estimateurs  \hat{\alpha} et  \hat{\beta} des coefficients sont ceux qui minimisent la somme des carrés des résidus ou écarts ou sum of square error en anglais(SSE) soit :
$$\begin{equation}SSE(\alpha,\beta) =\sum_{i = 1}^{n}\epsilon_{i}^2 =\sum_{i = 1}^{n}(y_{i} -\hat{\alpha}-\hat{\beta}x_{i})^{2}\end{equation}$$ Typiquement pour une fonction à double variable (\(\hat{\beta} \) et \(\hat{\alpha}\)), il faudrait qu’au minimum de la fonction SSE, les dérivées partielles soient nulles  $$\begin{cases}\frac{\partial SSE}{\partial \hat{\alpha}}=\displaystyle\sum_{i = 1}^{n}2[y_{i} -(\hat{\alpha}+\hat{\beta})](-1)= -2\displaystyle\sum y_{i} + 2\displaystyle\sum \hat{\alpha} + 2\displaystyle\sum\hat{\beta}x_{i} =0 \\ \frac{\partial SSE}{\partial \hat{\beta}}=\displaystyle\sum_{i = 1}^{n}2[y_{i} -(\hat{\alpha}+ \hat{\beta})](-x_{i}) = -2\displaystyle\sum x_{i} y_{i} + 2\displaystyle\sum\hat{\alpha}x_{i} + 2\displaystyle\sum\hat{\beta}x_{i}^{2}=0\end{cases}$$ et après une simplification par \(-2\) nous obtenons : $$\begin{cases}\displaystyle\sum_{i = 1}^{n}y_{i}-\displaystyle\sum_{i = 1}^{n}\hat{\alpha}-\hat{\beta}\displaystyle\sum_{i = 1}^{n}x_{i}=\displaystyle\sum_{i = 1}^{n}y_{i}-n\hat{\alpha}-\hat{\beta}\displaystyle\sum_{i = 1}^{n}x_{i}=0 \\ \displaystyle\sum_{i = 1}^{n}x_{i}y_{i}-\hat{\alpha}\displaystyle\sum_{i = 1}^{n}x_{i}-\hat{\beta}\displaystyle\sum_{i = 1}^{n}x_{i}^{2}=0 \end{cases}$$ ou $$\begin{cases} n\hat{\alpha}+\hat{\beta}\displaystyle\sum_{i = 1}^{n}x_{i} =\displaystyle\sum_{i = 1}^{n} y_{i}   \\   \hat{\alpha}\displaystyle\sum_{i = 1}^{n} x_{i}+\hat{\beta}\displaystyle\sum_{i = 1}^{n}x_{i}^{2} =\displaystyle\sum_{i = 1}^{n}x_{i} y_{i}\end{cases}$$ La solution pour ces deux équations simultanées est : $$\begin{equation}\begin{split} n\hat{\alpha}=\sum y_{i}- \hat{\beta}\sum x_{i} & \Longrightarrow \hat{\alpha}=\frac{\sum y_{i} }{n} – \hat{\beta}\frac{\sum x_{i}}{n}  \\  & \Longrightarrow \hat{\alpha}=\bar{y}-\hat{\beta}\bar{x}\end{split}\end{equation}$$ Une fois que nous avons déterminé \(\hat{\alpha}\), nous pouvons le remplacer par son expression dans la deuxième équation : $$ \begin{equation}\begin{split}\hat{\beta}\displaystyle\sum x_{i}^{2} &= \displaystyle\sum x_{i} y_{i} -\hat{\alpha}\displaystyle\sum x_{i}=\displaystyle\sum x_{i} y_{i} -(\bar{y}- \hat{\beta}\bar{x})\displaystyle\sum x_{i} \\ &=\displaystyle\sum x_{i} y_{i}-\bar{y}\displaystyle\sum x_{i} +\hat{\beta}\hat{x}\displaystyle\sum x_{i} \\ &=\displaystyle\sum x_{i} y_{i}-\frac{(\sum x_{i})(\sum y_{i})}{n}+\hat{\beta}\frac{(\sum x_{i})^2}{n} \\  \hat{\beta}\Biggl[\displaystyle\sum x_{i}^{2}-\frac{(\sum x_{i})^2}{n}\Biggr] &=\displaystyle\sum x_{i} y_{i} -\frac{(\sum x_{i})(\sum y_{i})}{n} \end{split}\end{equation}$$ et comme nous savons que la moyenne des produits de \(x\) par \(y\), \(\overline{xy}=\frac{\sum x_i y_i}{n}\), le produit des moyennes \(\bar{x}\bar{y} = \frac{(\sum x_{i})(\sum y_{i})}{n^{2}} \)  et que la moyenne des carrés de \(x\), \(\overline{x^2}=\frac{\sum x_{i}^{2}}{n}\), nous pouvons réécrire l’équation \((4)\) comme ce-ci : $$\begin{equation*} \hat{\beta}\Biggl[n(\overline{x^2})-n(\bar{x}^2)\Biggr] =n(\overline{xy})-n(\bar{x}\bar{y})\end{equation*}$$ En simplifiant par \(n \) et en notant que \(\overline{xy}-\bar{x}\bar{y}\) et \(\overline{x^2}-\bar{x}^2\), sont respectivement la covariance de \(x \) et \(y\), notée \(\sigma_{xy}\) et la variance de \(x\), notée \(\sigma^{2}_{x}\), on obtiendra donc : $$ \begin{equation}\hat{\beta}= \frac{\sigma_{xy}}{\sigma_{x}^2} \end{equation}$$

Remarquez jusqu’ici que nous avons pris le soin de noter \hat{\alpha} et \hat{\beta} au lieu de \alpha et \beta, c’est pour être statistiquement correcte à partir du moment où les premiers sont les estimateurs. Nous n’allons pas le démontrer mais \hat{\beta} est un bon estimateur de  \beta car E[\hat{\beta}]=\beta et de variance \sigma_{\hat{\beta}}^{2}=\frac{\hat{\sigma}_{\epsilon}^{2}}{\sum (x_i-\bar{x})^2}. Il en est de même pour \hat{\alpha} qui a une variance de \sigma_{\hat{\alpha}}^{2}=\hat{\sigma}_{\epsilon}^{2} \Biggl[\frac{1}{n}+\frac{\bar{x}^2}{\sum (x_i-\bar{x})^2}\Biggr] \hat{\sigma}_{\epsilon}^{2}=\frac{\sum \hat{\epsilon}^2}{n-2} ou \hat{\sigma}_{\epsilon}^{2}=\frac{SCR}{n-2}comme nous allons le démontrer au point sur la décomposition de la variance plus bas. On peut donc à partir des racines carrées des variances, déterminer les écart-types ou Standard Error qui servent à construire notamment des intervalles de confiances autour de nos coefficients.

Coefficient de corrélation de Pearson et test de la relation linéaire

Jusqu’ici, nous avons dérivé les coefficients \(\alpha\) et \(\beta\) de la droite de régression ou plus rigoureusement leurs estimateurs. Nous avons mentionné plus haut que la covariance \(\sigma_{xy}\) et \(\beta\) nous permettaient de mettre en évidence le sens de la relation entre \(y\) et \(x\) et mieux encore que \(\beta\) était le facteur constant d’augmentation ou de diminution de \(y\) quand \(x\) évolue d’une unité. Subséquemment, il est possible de comprendre que plus \(\lvert \sigma_{xy}\rvert\) ou \(\lvert \beta \rvert\) sera élevé ou important,  plus élevé ou important sera l’impact de \(x\) sur \(y\). De la, on pourrait être tenté de prendre l’un ou l’autre de \(\sigma_{xy}\) ou de \(\beta\) pour mesurer l’importance ou l’intensité de la relation entre \(x\) et \(y\) notamment à des fins de comparaisons entre plusieurs variables indépendantes. Malheureusement, ces mesures dépendent fortement des échelles ou des unités des variables, plus précisément de celles   y et la covariance peut prendre n’importe qu’elle valeur dans l’ensemble des réels, auquel cas il serait donc aberrant de vouloir comparer des covariances entre elles.

Au vu de ces inconvénients, on peut déterminer une autre mesure qui, elle a l’avantage d’être normalisée. Il s’agit du coefficient de corrélation de Pearson \(\rho_{xy}\) qui permet de mesurer la force ou l’intensité de la liaison entre les variables \(x\) et \(y\) et qui n’excède jamais 1 en valeur absolue. Il se calcule comme suit :$$\begin{equation}\rho_{xy} = \frac{\sigma_{xy}}{\sigma_{x}\sigma_{y}}\end{equation}$$

En effet, on peut à travers l’inégalité de Cauchy-Schwarz, montrer que \(\rho_{xy}\) est toujours compris entre -1 et 1. D’après cette inégalité on peut écrire ce qui suit : $$\begin{equation}\overline{ab}^{2}\le \bar{a}^2\bar{b}^2\end{equation}$$ ainsi, en posant que  a=x-\bar{x} et   b=y-\bar{y} , et en observant que  \overline{(x-\bar{x})(y-\bar{y})}, \overline{(x-\bar{x})}^2 et  \overline{(y-\bar{y})}^2 sont en fait, les formules originales(par ce que pour la formulation de l’équation \((5)\), nous avons opter pour leur formule développée), respectivement de la covariance \(\sigma_{xy}\), de la variance de \(x\), \(\sigma_{x}\) et de la variance de \(y\), \(\sigma_{y}\), alors on peut réécrire l’inéquation \((7)\) comme ceci : $$\begin{gather*}\overline{(x-\bar{x})(y-\bar{y})}^{2}\le\overline{(x-\bar{x})}^2\overline{(y-\bar{y})}^2 \\ \sigma_{xy}^2\le\sigma_{x}^2\sigma_{y}^2 \\ \lvert\sigma_{xy}\rvert\le\sigma_{x}\sigma_{y} \\ -\sigma_{x}\sigma_{y}\le\sigma_{xy}\le\sigma_{x}\sigma_{y} \\ -1\le\frac{\sigma_{xy}}{\sigma_{x}\sigma_{y}}\le 1 \\ -1\le\rho_{xy}\le 1\end{gather*}$$ Il s’interprète comme ceci :
– si \(\rho_{xy}\) tend vers -1, il existe une forte relation linéaire négative entre \(x\) et \(y\)
– si \(\rho_{xy}\) tend vers 1, il existe une forte relation linéaire positive entre \(x\) et \(y\)
– si \(\rho_{xy}\) est proche de 0, on dit de la relation linéaire entre \(x\) et \(y\), qu’elle est faible. De manière générale en pratique dès lorsque  \rho_{xy}\ge0.5 , on qualifie la liaison de forte, mais bon c’est relatif.

Décomposition de la variance et Coefficient de détermination

Avec les estimateurs \hat{\alpha} et \hat{\beta} obtenus ci-dessous, nous pouvons connaissant la moyenne de x, \bar{x} déterminer avec précision la moyenne de y, \bar{y} ( voir l’équation (3)) et de manière générale connaissant une observation donnée x_i on peut prédire une valeur \hat{y}_i = \hat{\alpha} + \hat{\beta}x_i , mais différente de la valeur de y_i de  \hat{\epsilon}_i . Ainsi, formellement ça donne : $$\begin{equation}y_i =\hat{y}_i + \hat{\epsilon}_i\end{equation}$$ De la, nous pouvons en effectuant les opérations suivantes dans l’ordre obtenir la variance totale de y et sa décomposition : il s’agit de soustraire  \bar{y}  de chaque côté de l’équation et ensuite d’élever chaque membre au carré puis de sommer le résultat pour chaque valeur de i jusqu’à latex]n [/latex] : $$\begin{equation}\begin{split}y_i &=\hat{y}_i + \hat{\epsilon}_i  \\ y_i – \bar{y} &=\hat{y}_i – \bar{y} + \hat{\epsilon}_i \\ (y_i – \bar{y})^2 &=((\hat{y}_i – \bar{y}) + \hat{\epsilon}_i)^2  \\  \sum_{i = 1}^n(y_i – \bar{y})^2 &=\sum_{i = 1}^n\Bigl((\hat{y}_i – \bar{y}) + \hat{\epsilon}_i\Bigr)^2 \\  \sum_{i = 1}^n(y_i – \bar{y})^2 &=\sum_{i = 1}^n\Bigl((\hat{y}_i – \bar{y}) + \hat{\epsilon}_i\Bigr)^2 \\ &=\sum_{i = 1}^n\Bigl((\hat{y}_i – \bar{y})^2 + \hat{\epsilon}_i^2 + 2(\hat{y}_i – \bar{y})\hat{\epsilon}_i\Bigr) \\ &=\sum_{i = 1}^n(\hat{y}_i – \bar{y})^2 + \sum_{i = 1}^n\hat{\epsilon}_i^2 +\underbrace{2\sum_{i = 1}^n(\hat{y}_i – \bar{y})\hat{\epsilon}_i}_{0} \end{split}\end{equation}$$ Et si l’on ne comprend pas pourquoi le membre le plus à droite est nul, on peut commencer par ceci : partons de l’équation (8) qui implique que \hat{\epsilon}_i=y_i-\hat{y}_i et de l’équation (3) qui implique que \bar{y} = \hat{\alpha}+\hat{\beta}\bar{x}, et montrons ensuite que la différence \hat{y}_i-\bar{y}=(\hat{\alpha}+\hat{\beta}x_i)-(\hat{\alpha}+\hat{\beta}\bar{x})=\hat{\beta}(x_i-\bar{x}) et puis intercalons \bar{y} dans l’expression suivante : \hat{\epsilon}_i=y_i-\bar{y}+\bar{y}-\hat{y}_i, on peut ainsi réécrire que  \hat{\epsilon}_i=(y_i-\bar{y})+\bar{y}-\hat{y}_i et pour finir avec une version plus “malléable”  \hat{\epsilon}_i=(y_i-\bar{y})+(\hat{\alpha}+\hat{\beta}\bar{x})-(\hat{\alpha}+\hat{\beta}x_i)=(y_i-\bar{y})-\hat{\beta}(x_i-\bar{x}). Maintenant, avec ce que l’on sait, on peut facilement conclure de la nullité de la double somme : $$\begin{equation*}\begin{split}2\sum_{i = 1}^n(\hat{y}_i-\bar{y})\hat{\epsilon}_i &=2\sum_{i = 1}^n\hat{\beta}(x_i-\bar{x})\Bigl((y_i-\bar{y})-\hat{\beta}(x_i-\bar{x})\Bigr) \\ &=2\hat{\beta}\Bigl(\displaystyle\sum_{i = 1}^n(y_i-\bar{y})(x_i-\bar{x})-\hat{\beta}\displaystyle\sum_{i = 1}^n(x_i-\bar{x})^2\Bigr) \\ \text{Et comme }\hat{\beta} &=\frac{\sigma_{xy}}{\sigma_{x}^2}=\displaystyle\sum_{i = 1}^n\frac{(y_i-\bar{y})(x_i-\bar{x})}{(x_i-\bar{x})^2}=\frac{\sum_{i = 1}^n(y_i-\bar{y})(x_i-\bar{x})}{\sum_{i = 1}^n(x_i-\bar{x})^2} \\ &=2\hat{\beta}\Bigl(\sum_{i = 1}^n(y_i-\bar{y})(x_i-\bar{x})-\frac{\sum_{i = 1}^n(y_i-\bar{y})(x_i-\bar{x})}{\sum_{i = 1}^n(x_i-\bar{x})^2}\sum_{i = 1}^n(x_i-\bar{x})^2\Bigr) \\ &=2\hat{\beta}\underbrace{\Bigl(\sum_{i = 1}^n(y_i-\bar{y})(x_i-\bar{x})-\sum_{i = 1}^n(y_i-\bar{y})(x_i-\bar{x}) \Bigr)}_{0}\end{split}\end{equation*}$$ ceci étant fait nous revenons à notre équation  9 dans la quelle nous allons remplacer \epsilon par son expression pour obtenir finalement notre variance ou la somme des carrés totaux décomposée comme ceci : $$\begin{equation}\underbrace{\sum_{i = 1}^n(y_i-\bar{y})^2}_{SCT}=\underbrace{\sum_{i = 1}^n(\hat{y}_i-\bar{y})^2}_{SCE}+\underbrace{\sum_{i = 1}^n(y_i-\hat{y}_i)^2}_{SCR}\end{equation}$$ Ainsi nous avons démontré que la somme des carrés totaux (SCT) (il suffirait de diviser cette dernière par n pour obtenir la formule de la variance) est égale à la somme des carrés expliqués (SCE), qui exprime la part de variation de y que notre modèle, a le mérite d’expliquer, plus la somme des carrés résiduels(SCR), qui est la part non expliquée par le modèle et absorbée par le terme d’erreur.

Ainsi, il devient automatique de comprendre qu’un bon modèle devrait avoir une proportion de SCE dans SCT, plus importante que celle de SCR. Cette part qu’on appelle coefficient de détermination, R^2 mesure donc la qualité de prédiction de notre modèle de régression linéaire :$$\begin{equation}\begin{split}R^2 &=\frac{SCE}{SCT} \text{ ou encore }R^2=1-\frac{SCR}{SCT} \\ &=\frac{\sum_{i = 1}^n(\hat{y}_i-\bar{y})^2}{\sum_{i = 1}^n(y_i-\bar{y})^2}\\ &= \frac{\sum_{i = 1}^n\Bigl((\hat{\alpha}+\hat{\beta}x_i)-(\hat{\alpha}+\hat{\beta}\bar{x})\Bigr)^2}{\sum_{i = 1}^n(y_i-\bar{y})^2} \\ &=\hat{\beta}^2\frac{\sum_{i = 1}^n(x_i-\bar{x}) ^2}{\sum_{i = 1}^n(y_i-\bar{y})^2} \\ &=\Bigl(\frac{\sum_{i = 1}^n(y_i-\bar{y})(x_i-\bar{x})}{\sum_{i = 1}^n(x_i-\bar{x})^2}\Bigr)^2\frac{\sum_{i = 1}^n(x_i-\bar{x}) ^2}{\sum_{i = 1}^n(y_i-\bar{y})^2} \\ &=\Bigl(\frac{n\sigma_{xy}}{n\sigma_x^2}\Bigr)^2\frac{n \sigma_x^2}{ n\sigma_y^2} \\ &=\Bigl(\frac{\sigma_{xy}}{\sigma_x \sigma_y}\Bigr)^2 \\ R^2&=\rho_{xy}^2\end{split}\end{equation}$$ On remarque donc que ce coefficient de détermination n’est d’autre que le carré du coefficient de corrélation. Plus il sera proche de la valeur 1, meilleur sera le modèle, ce qui veut dire que la connaissance des valeurs de  x permet de prédire avec plus de précision celle de  y. On peut par ailleurs, calculer le coefficient de détermination ajusté qui est plus robuste que son précédent qui à tendance à augmenter avec le nombre de variables indépendantes : $$R_{Adjusted}^2 =1-(1-R^2)\frac{n-1}{n-k-1}$$ où k est le nombre de variables indépendantes dans notre cas k=1.

Test sur les paramètres de la régression linéaire simple

Vous vous doutez bien que les mesures et les coefficients que nous avons calculé jusqu’ici vont être soumis à des tests pour juger notamment de leur significativité. Ici, nous allons nous intéresser au coefficient \beta puisse qu’en grande partie, de la robustesse de ce dernier dépendra la pertinence de notre modèle donc ça validité. Pour ce faire, nous pouvons recourir au T- test , pour contrôler la significativité des coefficients individuellement(nous allons voir le cas de beta mais dans l’application nous verrons les deux) ou recourir au test de significativité globale F-test  qui lui porte directement sur le modèle dans sa globalité.

Pour qu’il existe une relation linéaire significative entre x et y, il faut que \beta soit différent de 0. Avant d’effectuer ce test, il faut d’abord vérifier que les valeurs \epsilon_i sont indépendantes et suivent une loi normale centrée et de variance \sigma_{\epsilon}^{2}(inconnue). Ce ci peut être vérifié grâce un test de normalité comme celui de le test de Shapiro – Wilk.

Lorsque ce ci est fait, on peut passer à l’élaboration des hypothèses de notre test :

H_0:\beta=0 , il n’y a pas de relation linéaire

H_1:\beta\ne 0, il existe une relation linéaire

Ensuite nous allons déterminer la statistique du test. En effet, si l’hypothèse nulle est vraie, alors la statistique t_{\beta,n-2}=\frac{\beta}{s/\sqrt{\sum(x_i-x^2)}} suit une loi de Student de n-2 de dégré liberté.Notez que s^2=\frac{SCR}{n-2}

Règle de décision : Pour un niveau de risque donné \alpha(à ne pas confondre avec notre ordonnée à l’origine. En effet, \alpha est la probabilité de rejet de H_0 si cette dernière est vraie ou le risque d’erreur de première espèce), on lit le seuil critique t_{\alpha/2,n-2}, dans la table de Student et si \lvert t_{\beta,n-2}\rvert \ge t_{\alpha/2,n-2}, alors on peut rejeter H_0 et conclure que \beta est significativement différent de 0. L’autre option, est de passer par la détermination du p-value=2P(t_{\beta,n-2}>t_{\alpha/2,n-2}) si t_{\beta,n-2}>0 et p-value=2P(t_{\beta,n-2}<t_{\alpha/2,n-2}) si t_{\beta,n-2}<0. Dans ce cas on rejette H_0 quand p-value<\alpha.

Comme alternative au T- Test, nous avons le F- Test, qui découle du tableau de l’Analyse de la Variance(Analysis of variance, ANOVA) que nous présentons ci-dessous :

Source de variation Somme des carrés Degré de liberté Carrés moyens F de Fisher
Expliquée SCE=\sum(\hat{y_i}-\bar{y})^2 \quad k \quad CME=\frac{SCE}{k} \quad F = \frac{CME}{CMR}
Residuelle SCR =\sum(y_i-\hat{y_i})^2 \quad n-2 \quad CMR=\frac{SCR}{n-2}
Totale SCT=\sum(y_i-\bar{y})^2 \quad n-k-2

k représente le nombre de variables indépendantes. Dans notre cas k=1.  Les hypothèses de bases restent les mêmes :

H_0:\beta=0, il n’y a pas de relation linéaire

H_1:\beta \ne 0, il existe une relation linéaire

Ici la statistique F, suit une loi de Fisher de k=1 degré de liberté au numérateur et n-2 au dénominateur.

Règle de décision : On rejettera H_0, si F>F_{\alpha} ou si p-value<\alpha avec p-value=P(F>F_{\alpha}) (On peut lire la valeur critique F_{\alpha}dans la table de Fisher). 

Implémentation du MEDAF avec MATLAB

Le MEDAF en bref

Le MEDAF ou Modèle d’Évaluation Des Actifs Financiers,  fait partie des modèles les plus connus en théorie financière. Il a été développé respectivement par Treynor Sharpe,  Lintner et Mossin. Ce modèle se base sur la théorie du portefeuille de Harry Markowitz, qui a le mérite d’avoir spécifié les critères de choix d’un actif financier et de manière plus général d’un portefeuille comme étant leur rendement et  leur variance ou  risque(En effet, plus un titre est risqué plus son rendement est élevé, et vis versa). Ce dernier critère se décompose en risque spécifique qui peut être neutralisé grâce à la technique de diversification de portefeuille et en risque systématique, dont l’on ne peut s’en défaire. A l’aune de cette analyse, lorsque les hypothèses suivantes sont vérifiées, notamment :

  • – Marché des capitaux parfait : Absence coûts de transaction, un investisseur peut acheter ou vendre à découvert n’importe quelle action sans que cela ait une incidence sur le prix de l’action.Il n’y a pas de taxes.
  • – Prévisions homogènes (tous les investisseurs ont les mêmes anticipations de rentabilités,
    d’écarts types et de corrélations).

le MEDAF, statue qu’à l’équilibre le rendement exigé pour un titre risqué(donc qui contient un risque systématique) devrait surpasser/excéder le rendement de l’actif sans risque d’une prime de risque. Cette prime ne rémunère que le noyau dur du risque à savoir le risque systématique dans une proportion déterminée par le beta (sans doute la plus fameuse des lettres grecques en finance, loin devant les Greeks des dérivés ). Formellement, l’espérance de rendement  E[R_{j}] d’un titre  j donne :$$\begin{equation}E[R_{j}]=R_{risk free}+\beta _{j}(E[R_{Market}]-R_{risk free})\end{equation}$$ où R_{risk free} et R_{Market} représentent respectivement le rendement de l’actif sans risque généralement le taux de bonds de trésor et le rendement du marché. Ce modèle est extrêmement utilisé pour déterminer le coût des fonds propres et donc du capital d’une société, dans le cadre de la politique d’investissement en évaluation de projet ou de société d’où son appellation. Il a néanmoins fait l’objet de nombreuses critiques, certains lui préfèrent les modèles par arbitrage ou multifactoriels…

Par ailleurs, nous pouvons réécrire l’équation (12) de la manière suivante  : $$\begin{equation}\underbrace{E[R_{j}]-R_{risk free}}_{\text{prime de risque de l’actif j}}=\beta_{j}\underbrace{(E[R_{Market}]-R_{risk free})}_{\text{prime de risque du marché}}\end{equation}$$, C’est à l’aune de cette expression de l’équation du MEDAF, que nous pouvons estimer \beta comme étant la pente de la droite de régression linéaire de l’excédent de rentabilité ou prime de risque(interprétation financière) d’un titre par rapport à l’excédent de rentabilité ou prime de risque du marché. Ainsi, par simple rappel de ce qui a été démontré, concernant la pente d’une droite de régression linéaire, \beta peut s’exprimer comme ceci : $$\begin{equation}\beta_j=\displaystyle\sum_{i=1}^n\frac{(R_j^i-E[R_j])(R_{Market}^i-E[R_{Market}])}{(R_{Market}^i-E[R_{Market}])^2}=\frac{\sigma_{j,Market}}{\sigma_{Market}^2}\end{equation}$$ grâce à la MCO. Autrement dit, \beta_j, n’est que le coefficient directeur de la droite de régression simple des rendements d’un titre j par rapport aux rendements du marché. Ainsi, son estimation doit être suivie de l’ensemble des tests de significativités précédemment exposés.

Nous allons donc pour l’estimation du \beta, implémenter le modèle ci-dessous: $$\begin{equation} R_{j}^{\ast i} = \alpha+\beta R_{Market}^{\ast i} \end{equation}$$ (où la présence de * signifie excédent). Partant de ce modèle, et d’après l’équation du MEDAF, l’égalité suivante \hat{\alpha}=0 devrait être vérifiée. Si ce n’est pas le cas alors on peut renommer le paramètre \hat{\alpha}, l’Alpha de Jensen, qui sert de mesure de sur ou sous – performance d’un actif par rapport au MEDAF.

Importation des données financières et calcul des rendements

Pour implémenter notre modèle nous allons importer les cours depuis Yahoo Finance qui est une plateforme à ne plus présentée. Pour ce faire, nous allons utiliser la fonction hist_stock_data(), que l’on peut trouver  ici. Faites un copier coller de la fonction dans un fichier script nommé hist_stock_data.m ou si cela vous semble trop long à faire vous pouvez télécharger directement une copie ici. Ce fichier doit être bien entendu placé dans le répertoire courant de travail.

Nous avons téléchargé les données de cours mensuels, relatives à Apple(AAPL), Microsoft(MSFT), l’indice composite Standard & Poor 500 et au taux de bonds de trésors Américains de maturité 3 mois(IRX). Les deux premiers cours, nous permettront de déterminer les rendements des titres(stockReturn) alors que les deux derniers feront offices de calcul du rendement du marché(marketReturn) et du taux de l’actif sans risque(riskFreeRate).

Concernant le calcul des rendements, nous avons le choix entre le mode de calcul ordinaire \frac{P_{i}-P_{i-1}}{P_i} et le mode log-return \log{\frac{P_{i}}{P_{i-1}}}.

Description statistique et visualisation des séries financières

Maintenant nous allons voir les indicateurs statistiques des rendements. Pour se faire et éviter de calculer à chaque fois ces statistiques pour chaque titre, nous allons concevoir la fonction describe() comme ceci :

Bien entendu cette fonction doit être mise dans le fichier describe.m. nous pouvons ensuite visualiser et les rendements et les statistiques :

Nous avons obtenus les indicateurs de tendance centrale, de dispersion et de forme. Faites votre interprétation ! Voici le graphique présentant l’évolution des rendement :

Détermination du beta et test de la pertinence du MEDAF

Nous allons dans un premier déterminer les excédents de rendement pour nos deux titres et pour l’indice du marché. Il s’agit de soustraire des rendements des titres, celui de l’actif sans risque :

Du code ci-dessous nous obtenons les nuages de points suivants : en abscisse les excédents de rentabilité de l’indice de rentabilité et en ordonnée les excédents respectifs des rentabilités de Apple et de Microsoft :

scatter

Pour la détermination des coefficients de la droite de régression et la réalisation test, si l’on dispose des packages  Statistic ou Econometric, il sera dans l’embarras de choix pour la fonction à utiliser. En effet, nous avons de manière non exhaustive regress()regstats(), fitlm(). Nous allons opter pour une méthode manuelle et construire nous même une fonction slregression() (comme  toujours, il faudrait le mettre dans un fichier script à part, nommé slregression.m):

On peut maintenant passer à l’implémentation comme ceci :

On obtient les nuages de points suivants :

scatter1

Interprétation 

Comme prévu par le MEDAF, le coefficient alpha des deux titres est très proche de 0 avec des P-value dépassant de loin le niveau de risque de 5%( 0.091608> 0.05 et 0.63975> 0.05)notamment pour MSFT, on peut donc accepter H_0 : \alpha=0, l’hypothèse de nullité du coefficient alpha avec un intervalle de confiance de 95%. Concernant notre coefficient vedette beta, il est très significatif pour les deux titres, au vu des P-value largement en dessous de notre niveau de risque de 5%(2.1136e-06 < 0.05 et 1.591e-09 < 0.05).

Nos conclusions tendent à conforter le niveau de pertinence du MEDAF à expliquer l’évolution des rendements des titres par le seul fait du risque systématique(le marché) et ceci d’autant plus que les P-value associés aux tests de significativité globale du modelé sont très faibles.

Par ailleurs, on peut observer que les betas des deux sociétés sont positifs et tournent autour de 1 à l’égard du beta de l’indice lui même (qui doit valoir 1), et les rendements ont comportement très similaires à celui de l’indice S&P 500. Cet état des faits n’est pas un hasard étant donné que Apple et Microsoft sont les deux plus grosses capitalisations qui composent cet indice(Au moins en 2015).

Toutefois, le taux de détermination est très faible. En effet, notre modèle n’explique que 24% de l’évolution du rendement de Apple et 36% de celle des rendements de Microsoft. C’est dire combien la prise en compte d’une seule variable reste insuffisante et qu’il serait peut être judicieux d’investiguer dans des modèles multifactoriels comme l‘APT.

Like