Boostrap, Jacknife et Cie M. Dramaix-Wilmet Département de Biostatistique Novembre 2004 Introduction Réf. : Bradley Efron (1979) Introduction • Bootstrap : méthode basée sur le ré-échantillonnage (RESAMPLING) • Principales.
Download ReportTranscript Boostrap, Jacknife et Cie M. Dramaix-Wilmet Département de Biostatistique Novembre 2004 Introduction Réf. : Bradley Efron (1979) Introduction • Bootstrap : méthode basée sur le ré-échantillonnage (RESAMPLING) • Principales.
Boostrap, Jacknife et Cie M. Dramaix-Wilmet Département de Biostatistique Novembre 2004 Introduction Réf. : Bradley Efron (1979) Introduction • Bootstrap : méthode basée sur le ré-échantillonnage (RESAMPLING) • Principales applications : – – – – Calcul d’intervalles de confiance Tests d ’hypothèse Réduction de biais Validation Introduction • Intérêt dans le cadre des calculs d’intervalles de confiance et des tests d’hypothèse – les méthodes usuelles ont le plus souvent des conditions d’application assez « sévères » – le bootstrap n’exige « rien »! Introduction • On peut reconstituer la distribution d ’une variable en faisant un certain nombre de « simulations » • Simulations = échantillons aléatoires des données sélectionnés avec remplacement • Plus le nombre de simulations est élevé, plus la reconstitution est meilleure Bootstrap - Principe • Echantillon « bootstrap » : échantillon aléatoire simple avec remplacement de n éléments parmi l’échantillon de taille n • Calcul de la statistique « bootstrap » : valeur de la statistique étudiée dans l’échantillon bootstrap • Répétition des deux premières étapes un très grand nombre « B » de fois Bootstrap-Principe • Distribution des statistiques calculées à partir des B échantillons « bootstrap » : simulation de la distribution échantillonnée de la statistique calcul moyenne distribution échantillonnée calcul DS distribution échantillonnée = erreur standard Intervalle de Confiance Bootsrap – Exemple (I) • Estimation erreur standard (ES) – Calcul avec EXCEL Bootstrap – Exemple (II) • Corrélation entre résultat fin secondaire et résultat à un test national (Efron, 1983) Bootstrap – Exemple (II) • 1000 échantillons bootstrap Bootstrap – Exemple (II) • Erreur Standard de r – Bootstrap : 0.127 – Théorie normale : 0.115 Bootstrap • Calcul d’intervalle de confiance – Formule usuelle (approximation normale) – Limites de confiance basées sur les percentiles ˆ 1.96ESˆ Bootstrap – Exemples (III) • Calculs avec EXCEL • Coefficient de corrélation – IC asymétrique approximation normale non OK – Méthodes « percentiles » IC : 0.65 à 0.91 (cf. IC approximatif basé sur normale) Bootstrap – Exemples (III) – Problème : r = .776 et Me distribution «Bootstrap» = 0.433 biais – Méthode des percentiles corrigée pour le Biais IC : 0.61 à 0.88 (en accord avec théorie standard pour coefficient corrélation) Il peut subsister des problèmes même avec ette méthode Bootstrap • Estimation de biais – Moyenne des échantillons « Bootstrap » estimation du paramètre – Ex. : coefficient de corrélation : estimation du biais : -0.014 (id. biais réel) Bootstrap versus approche paramétrique • Bootstrap peut être appliqué à n’importe quelle statistique : simple ou complexe • Avec un nombre raisonnable B d’échantillons (200-500 dans certaines simulations) : estimations presque sans biais des ES • Boostrap peut être appliqué qd un test paramétrique ne peut l’être PERMUTATION-RANDOMISATION • Tests de randomisation – permutation – Fisher 1935-1936 – Exemple : comparaison de deux moyennes – échantillons indépendants R. Fisher PERMUTATION-RANDOMISATION • Principe du test : comparaison de deux moyennes – Deux échantillons de taille m et n – Différence absolue observée entre les 2 moyennes = d1 – Si H0 vraie : n’importe laquelle des valeurs de l’échantillon total aurait aussi bien pu s’observer dans l’un ou l’autre des échantillons – On construit un nouvel échantillon 1 PERMUTATION-RANDOMISATION • Principe du test : comparaison de deux moyennes – On construit un nouvel échantillon 1 en sélectionnant aléatoirement m valeurs parmi toutes les valeurs – Les valeurs restantes constituent le nouvel échantillon 2 PERMUTATION-RANDOMISATION • Principe du test : comparaison de deux moyennes – On répète les deux étapes précédentes un grand nombre de fois (R-1) – On obtient R différences on les ordonne – On rejette H0 si la valeur de la statistique calculée dans l’échantillon initial est une valeur « extrême » de la distribution « permutation » de la statistique PERMUTATION-RANDOMISATION • Exemples – 2 groupes : 2 x 3 scores 20 «réarrangements» – PAS • Groupe 1 : 5 valeurs • Groupe 2 : 5 Valeurs 252 « réarrangements possibles » Bootstrap versus Test de permutation • Bootstrap ne donne pas des P-valeurs exactes – moins puissant • Test de Permutation basé sur l’équivalence de certaines distributions • Par ex. test égalité moyennes : il faut que les variances soient égales • Bootstrap n’a pas de telles restrictions peut s’appliquer qd un test permutation ne peut l’être JACKNIFE • Introduit par M. Quenouille en 1949 (pour estimation biais) et développé par TUKEY JACKNIFE • JACKNIFE : technique non paramétrique pour «approximer» la distribution échantillonnée d’une statistique • Soit un échantillon et une statistique étudiée (ex. moyenne, médiane…), le JACKNIFE consiste à: – Calculer la statistique en ôtant un sujet de l’échantillon – Répéter cette opération pour chaque sujet de l’échantillon – La distribution de l’ensemble des statistiques ainsi collectées est une approximation de la distribution échantillonnée de la statistique. JACKNIFE • Estimation du Biais – Ex. coefficient de corrélation : estimation du biais = -0.017 (bootstrap et biais réel : -0.014) JACKNIFE • Jacknife : technique de validation – Analyse discriminante : identification des variables permettant de discriminer 2 groupes ou + classification prédite par le modèle des sujets dans les différents groupes – Modèle validé par le Jacknife JACKNIFE • Le Jacknife comme technique de validation – Principe : • Chaque sujet ôté tour à tour de l’échantillon. • Fonction discriminante recalculée sans le sujet ôté. • Sujet ôté classé sur base de la fonction recalculée. – Classification globale = regroupement des classifications individuelles de chaque sujet ôté tour à tour – Ex. Enfants hospitalisés à Lwiro. • Outcome = état à la sortie • Variables sélectionnées dans le modèle : PBR, Oedèmes, Albumine sérique JACKNIFE Prior Probabilities for Groups etat ,00 1,00 Total Prior ,158 ,842 1,000 Cases Used in Analysis Unweig hted Weighted 134 134,000 712 712,000 846 846,000 JACKNIFE Classification Resultsb ,c Origi nal Count % Cross-validated a Count % etat ,00 1,00 ,00 1,00 ,00 1,00 ,00 1,00 Predi cted Group Membership ,00 1,00 32 124 21 797 20,5 79,5 2,6 97,4 32 124 22 796 20,5 79,5 2,7 97,3 Total 156 818 100,0 100,0 156 818 100,0 100,0 a. Cross vali dation is done only for those cases in the anal ysis. In cross validation, each case is cl assi fied by the functi ons derived from al l cases other than that case. b. 85,1% of ori ginal grouped cases correctl y cl assi fied. c. 85,0% of cross-val idated grouped cases correctl y cl assi fied. JACKNIFE Prior Probabilities for Groups etat ,00 1,00 Total Prior ,500 ,500 1,000 Cases Used in Analysis Unweig hted Weighted 134 134,000 712 712,000 846 846,000 JACKNIFE Classification Resultsb ,c Origi nal Count % Cross-validated a Count % etat ,00 1,00 ,00 1,00 ,00 1,00 ,00 1,00 Predi cted Group Membership ,00 1,00 114 42 194 624 73,1 26,9 23,7 76,3 112 44 196 622 71,8 28,2 24,0 76,0 Total 156 818 100,0 100,0 156 818 100,0 100,0 a. Cross vali dation is done only for those cases in the anal ysis. In cross validation, each case is cl assi fied by the functi ons derived from al l cases other than that case. b. 75,8% of ori ginal grouped cases correctl y cl assi fied. c. 75,4% of cross-val idated grouped cases correctl y cl assi fied. Bootstrap versus Jacknife • Jacknife pratiquement un bootstrap luimême • Deux méthodes très proches • Jacknife demande moins de calculs • Performances du « Bootstrap » meilleures (erreurs standards) MONTE-CARLO • Monte Carlo : solutions approximatives pour une variété de problèmes mathématiques en réalisant des échantillonnages par ordinateur • La méthode est ainsi dénnomée d’après la ville de Monte-Carlo à Monaco parce que la roulette est un simple générateur de nombre aléatoire • La nom et le développement des méthodes « Monte Carlo » datent d’environ 1944. MONTE-CARLO • Test de permutation on considère toutes les façons possibles de « renommer » les valeurs • Test de permutation 2 échantillons de 3 valeurs: 20 « réarrangements »; 2 échantillons de 6 valeurs: 924; 2 échantillons de 10 valeurs : 184 756! MONTE-CARLO • MONTE-CARLO : on se limite à un échantillon aléatoire de « réarrangements » on peut ainsi estimer la p-valeur • Ex. :400 réarrangements aléatoires, p-valeur de 5%: dans 95% des cas, la p-valeur estimée se trouve dans l’intervalle 4.5% à 5.5%. Si 1600 réarrangements aléatoires, cet intervalle va de 4.75% à 5.25% RESAMPLING : quelques logiciels • • • • • Resampling Stats : www.resample.com SAS (macros) : www.sas.com Simstat : www.simstat.com S-PLUS (routines) : www:http://statsci.com ……