La Multicolinéarité
La multicolinéarité désigne une corrélation élevée entre les variables explicatives d'un modèle de régression. Bien qu'elle ne biaise pas les estimateurs MCO, elle augmente leur variance, rendant les tests de significativité peu fiables. Détecter et traiter la multicolinéarité est essentiel pour obtenir des estimations précises et interprétables.
🎯 Objectifs pédagogiques
À la fin de ce chapitre, vous devez être capable de :
- Définir la multicolinéarité parfaite et imparfaite
- Comprendre ses conséquences sur les estimateurs
- Maîtriser les outils de détection (VIF, matrice de corrélation)
- Appliquer les remèdes appropriés
- Distinguer multicolinéarité problématique et acceptable
📚 Concepts clés à maîtriser
Notions fondamentales avec leurs définitions académiques :
- Multicolinéarité parfaite
- Relation linéaire exacte entre régresseurs : estimateurs indéterminés
- Multicolinéarité imparfaite
- Forte corrélation : variances élevées mais estimateurs définis
- VIF
- Variance Inflation Factor : mesure de la multicolinéarité
- Tolérance
- 1/VIF : valeur faible indique multicolinéarité élevée
- Condition index
- Diagnostic basé sur les valeurs propres de X'X
📋 Plan type du cours
Structure du cours en Licence 2 :
- Définition et sources de multicolinéarité
- Conséquences sur les estimateurs MCO
- Méthodes de détection
- Règles de décision (VIF > 10)
- Remèdes : suppression, régression ridge, ACP
- Multicolinéarité et interprétation
👨🏫 Auteurs de référence
Économistes fondamentaux à connaître :
⚠️ Pièges fréquents
Erreurs classiques à éviter aux examens :
- Croire que la multicolinéarité biaise les estimateurs
- Supprimer systématiquement une variable corrélée
- Ignorer la multicolinéarité quand le R² global est bon
💼 Applications concrètes
Exemples d'application dans le monde réel :
- Régression avec variables de tendance et saisonnières
- Modèles avec interactions
Niveau de ce chapitre : 🟡 Niveau intermédiaire