
About This Course
Le bootstrap est une méthode de rééchantillonnage introduite par Efron en 1979, qui permet d'estimer la distribution d'une statistique sans supposer une forme paramétrique connue pour les données. Son principe est d'une élégance radicale : puisque l'échantillon observé est la meilleure approximation disponible de la population, on simule le tirage répété en rééchantillonnant avec remise à partir de cet échantillon.
Concrètement, on génère B répliques bootstrap (typiquement B = 1 000 à 10 000), chacune de même taille n que l'original. Sur chaque réplique, on calcule la statistique d'intérêt θ̂*,moyenne, médiane, corrélation, coefficient de régression, etc. La collection de ces B valeurs forme la distribution bootstrap, qui approxime la vraie distribution d'échantillonnage de θ̂.
Cette distribution empirique permet de construire des intervalles de confiance sans formule analytique : la méthode des percentiles retient les quantiles 2.5 % et 97.5 % des θ̂*, tandis que la méthode BCa (bias-corrected and accelerated) corrige les biais et l'asymétrie. Le jackknife, variante plus ancienne, réestime la statistique en retirant successivement une observation.
Le bootstrap excelle là où les approches classiques échouent : petits échantillons, statistiques complexes, hypothèses de normalité non vérifiées. Il constitue un outil fondamental de l'inférence non paramétrique moderne.
Requirements
Statistiques Inférentielles
Course Staff

DJIDJOU Kevin
Ingénieur Telecom

Staff Member #2
Biography of instructor/staff member #2
Frequently Asked Questions
Quel navigateur web devrais-je utiliser ?
La plateforme fonctionne mieux avec les versions actuelles de Chrome, Edge, Firefox ou Safari ?