Médecine

Mise en commun de notes de cours…
 
AccueilAccueil  FAQFAQ  RechercherRechercher  S'enregistrerS'enregistrer  MembresMembres  GroupesGroupes  ConnexionConnexion  

Partagez | 
 

 Statistiques Marrazzi

Voir le sujet précédent Voir le sujet suivant Aller en bas 
AuteurMessage
David
Étudiant travailleur


Nombre de messages : 77
Age : 32
Localisation : lausanne / gruyères
Date d'inscription : 22/03/2006

MessageSujet: Statistiques Marrazzi   Jeu 15 Juin à 17:11

I : Sensibilité et spécificité d’un test de diagnostic ou de dépistage


Sensibilité, spécificité et prévalence

Pour évaluer un test de diagnostic ou de dépistage, on se base sur un test de référence appelé ‘gold standard’.
Ce test de référence nous permet de différencier les individus malades des individus sains.
(malade : M / sains : M-)
Le test de dépistage donne lui un résultat positif ou négatif (positif : T / négatif : T-)
On détermine ensuite les fréquences absolue pour les 4 résultats possibles : M, M-, T et T-

A partir de ces données, on peut calculer la sensibilité et la spécificité du test.
La sensibilité correspond à la proportion de test positif parmi les malades
La spécificité correspond à la proportion de test négatif parmi les sains

La précision des valeurs de sensibilité et de spécificité dépend du nombre d’individus testés.

La prévalence correspond à la fréquence relative de la maladie dans une population. On peut dire que c’est la probabilité à priori (avant connaissance du test) que le patient soit malade.

En utilisant un test diagnostic dont la spécificité et la sensibilité sont données, il est nécessaire de connaître la prévalence de la maladie pour déterminer la probabilité que le patient soit réellement malade après un test positif.


Concepts fondamentaux du calcul des probabilités

Le symbole n signifie ‘et’
Le symbole u signifie ‘ou’
Le symbole n ; signifie ‘donné’ ou ‘dans’

On distingue différents types de probabilités :

1) La probabilité de l’événement : P(A)
P(A) correspond au rapport de du nombre d’individus avec le caractère A (NA) sur le nombre total de la population (N)
P(A) = NA/N

2) La probabilité conjointe : P(A n B)
C’est la probabilité que 2 caractères différents soient présents simultanément dans une population (N)
P(A n B) = NAB / N

3) La probabilité conditionnelle : P(B n A)
La probabilité de trouver un caractère B dans la population présentant le caractère A
P(B n A) = NAB/ NA

On dit que A et B sont indépendants si la probabilité de B dans la population totale est égale à la probabilité de B dans la population présentant le caractère A
P(B n A) = P(B) -> A et B indépendant

Par exemple si 5% des fumeurs présentent une maladie X et 5% de la population totale présente aussi cette maladie X, on peut dire que la fumée et la maladie X sont indépendants.


Propriétés mathématiques élémentaires des probabilités

1) Pour tout événement, la probabilité se trouve entre 0 et 1 (pouvant être égale à 0 ou 1)

2) Si A et B sont des événements incompatibles (par exemple pile ou face).
donc P(A n B) = 0
P(A u B) = P(A) + P(B)

3) P(A u B) = P(A) + P(B) – P(A n B)

4) P(B n A) = P(A n B) / P(A)
P(A n B) = P(A n B) / P(B)

5) Si A et B sont indépendant:
P(B n A) = P(B)
P(A n B) = P(A)

6) Formule de Bayes:
P(B n A) = [ P(A n B) P(B) ] / P(A)

7) Formule de la probabilité totale:
P(A) = P(A n B) + P(A n B-)
= P(A n B) P(B) + P(A n B-) P(B-)

Emploi de la formule de Bayes : probabilité a posteriori
Déterminer la probabilité que le patient soit malade après un test positif :
La probabilité a posteriori : P(M n T)

Sensibilité : P(T n M)
Spécificité: P(T- n M-)
Prévalence : P(M)

Formule de Bayes : P(M n T) = [ P(T n M) P(M) ] / P(T)
Probabilité totale : P(T) = P(T n M) P(M) + P(T n M-) P(M-)

En combinant ces 2 formules :
P(M n T) = [ P(T n M) P(M) ] / [P(T n M) P(M) + P(T n M-) P(M-)]
= sensibilité*prévalence / [sensibilité*prévalence + (1-spécificité)*(1-prévalence) ]

Exemple :
Sensibilité = 95%
Spécificité = 99%
Prévalence = 1/10’000

P(M n T) = 0,95*0,0001/(0,95*0,0001 + 0,01*0,9999) = 0,0094
Avec ces données, la probabilité a posteriori que le patient soit malade après un test positif est inférieur à 1% !!!
Un test positif n’indique donc pas forcément que le patient est malade !


Terminologie

P(M) = prévalence

P(T n M) = sensibilité
P(T- n M-) = spécificité

P(M n T) = valeur prédictive positive du test
P(M- n T-) = valeur prédictive négative du test

P(T n M-) = taux de faux positif = 1 - spécificité
P(T- n M) = taux de faux négatif = 1 – sensibilité

Attention pour certains auteurs :
Taux de faux positifs = P(M- n T)
Taux de faux négatifs = P(M n T-)


Le rôle de la prévalence

Pour un test avec des valeurs de 95% de sensibilité et de 99% de spécificité :
Le taux de faux négatif est toujours très faible (inférieur à 1%)
Le taux de faux positif est élevé (>50%) et varie beaucoup en fonction de la prévalence.
Pour une prévalence de 1/100, le temps.
La décision de maintenir un tel test dépendra de l’importance de la maladie, des conséquences du test, des coûts des examens complémentaires et de l’éventuel traitement et des chances de succès de ce dernier.
Il est parfois possible de réduire les taux d’erreur en combinant 2 ou plusieurs tests.


Combinaison de 2 ou plusieurs tests
M = le patient est malade M- = le patient n’est pas malade
T1 = le 1er test est positif T1- = le 1er test est négatif
T2 = le 2e test est positif T2- = le 2e test est négatif

Condition : il faut bien sûr que les 2 résultats soient indépendant !

On calcule tout d’abord la probabilité a posteriori que le patient soit malade après le 1er test grâce à la formule vue précédemment :
P(M n T1) = [ P(T1 n M) P(M) ] / [P(T1 n M) P(M) + P(T1 n M-) P(M-)]
= sensibilité*prévalence / [sensibilité*prévalence + (1-spécificité)*(1-prévalence) ]

La prévalence P(M) correspond à la probabilité a priori d’être malade avant le 1er test.
Avant un 2e test, la probabilité a priori correspond à la probabilité a posteriori d’être malade après le 2e test : P(M n T1)
On utilise donc la même formule, mais en remplaçant la prévalence P(M) par la probabilité a priori d’être malade avant un 2e test : P(M n T1)
P(M n T2) = [ P(T n M) P(M n T1) ] / [P(T2 n M) P(M) + P(T2 n M-) P(M- n T1)]
= sensibilité*P(M n T1) / [sensibilité*prévalence + (1-spécificité)*(1- P(M n T1) ) ]

On procède de manière similaire avec un 3e ou 4e test, etc… jusqu’au moment où il est raisonnable de prendre une décision médicale.
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
David
Étudiant travailleur


Nombre de messages : 77
Age : 32
Localisation : lausanne / gruyères
Date d'inscription : 22/03/2006

MessageSujet: Re: Statistiques Marrazzi   Dim 2 Juil à 16:34

II. L’essai clinique randomisé

On emploie cette étude pour évaluer l’efficacité d’un médicament par rapport à un placebo ou un médicament standard dans les études en double aveugle.

On a donc deux groupes :
-Un groupe soumis au traitement : T
-Un groupe qui reçoit un placebo ou un traitement standard : S

Il faut donc comparer les réponses au médicament, ce qui peut être :
-Qualitative binaire : succès / échec
-En catégories ordonnées : ‘il va mieux’ / ‘stable’ / ‘empire’
-Quantitative : poids, température…

Réponse binaire :

Groupe ayant reçu le traitement : n1.
Groupe ayant reçu le placebo : n2.
Succès : 1
Echec : 2

On compare donc le taux de succès avec traitement : T = n11 / n1.
Et le taux de succès avec placebo : S = n21 / n2.

Certains facteurs peuvent influencer les taux de succès ( l’âge, le sexe, fumeur/non-fumeurs…).
Il faut que ces facteurs soit en quantité identique dans les 2 groupes, sinon le résultat est biaisé (faussé), et le traitement ne serait pas la cause d’une éventuelle différence entre les taux.

Il faut donc avoir des groupes comparables. Pour cela, on peut :
-former des blocs homogènes selon les facteurs connus et comparer les groupes homogènes (par exemple : former des groupes homogènes selon l’âge, le sexe sous T et sous S, ou même apparier chaque femme sous T à une femme du même âge sous S)
-Randomiser sur les facteurs inconnus

La randomisation :
La randomisation laisse le choix au hasard de déterminer les groupes. L’allocation du traitement T ou du placebo S pour chaque personne est obtenue au hasard.
On peut :
a) Choisir au hasard le traitement pour chaque personne
b) Choisir au hasard les personnes pour chaque traitement

Chaque étiquette a les mêmes chances d’être tirée.

Analyse des réponses binaires :
On mesure l’effet en calculant la différence de probabilité de succès entre le traitement et le placebo.
d0 = p1-p2
Si il y a eu 66% de réussite avec le traitement et 0% avec le placebo : 66% - 0% = 0%
La question est maintenant de savoir si cet effet est significatif pour qu’il ne soit pas du au hasard.
Plus précisément, on calcule le résultat de l’hypothèse H0 : T est équivalent à S.
On calcule donc avec quelle probabilité le hasard produirait un effet aussi marqué ou plus marqué que l’effet observé d0.

En prenant un exemple avec 5 sujets, dont 3 subissent le traitement et 2 le placebo :

Le raisonnement nécessaire pour répondre se base sur les points suivants :
a) Si H0 était vrai, les réponses seraient des caractéristiques des sujets (et non des traitements)
b) Toutes les allocations de T à trois sujets parmi 5 sont équiprobables.
c) Conséquences logiques : les réponses et effets possibles de d se distribue selon un graphique de Gauss

Cette distribution gaussienne des réponses possibles pour d permet d’évaluer si l’effet est significatif.
Selon l’habitude, un effet est significatif si la probabilité est inférieure à 5%, ou parfois 1%. Ce niveau est arbitraire.

Exemple :
Avec des données au sujet de la désintoxication tabagique :
Sous traitement (T) : 71 succès et 197 échecs sur un total de 268
Sous placebo (S) : 50 succès et 193 échecs sur un total de 243
p1 = taux de succès sous T = 71/268 = 0,265
p2 = taux de succès sous S = 50/243 = 0,206
Donc d0 = p1 – p2 = 0,059
La distribution de d est calculée par un ordinateur et on trouve P = 0,07


Approximation mathématique de la distribution de d

On peut démontrer que les valeurs possibles de l’effet standardisé ‘z’ qui se calcule à partir d’une formule relativement compliquée :
z = (p1 – p2) / √ [p (1-p) ( 1/n1. + 1/n2. )]
où p = (n11 + n21) / (n1. + n2.)

Les valeurs possibles de l’effet standardisé ‘z’ ont approximativement une distribution de Gauss standard.
On peut établir grâce à une formule mathématique que :
P( z > 1,645) = 5%
P( z > 1,960) = 2,5%
P( z >2,326) = 1%

Dans l’exemple précédent, la valeur observée de z est de 1,571 (calculée à partir de la formule de l’effet standardisé)
On peut donc dire que l’effet (standardisé) n’est pas significatif au seuil de 5% étant donné que la valeur de z est inférieure à 1,645


Analyse de réponses en catégories ordonnées : mesure de l’effet w :
Statistique de test de Wilcoxon :

On peut donné par exemple des valeurs progressives pour chaque catégorie.
Par exemple :
1 : Le patient va mieux
2 : Il est stable
3 : Il empire

Pour mesurer l’effet, il faut :
1) Ordonner les réponses (les mettre dans l’ordre selon leur effet) (ex : 1 1 2 2 3 )
2) Distinguer les réponses à T de S (par exemple avec un prime pour T : 1’ 1’ 2’ 2 3 )
3) On remplace les réponses par leur rang ( 1’ 2’ 3’ 4 5)
4) Pour les réponses identiques, on remplace par le rang moyen (1,5’ 1,5’ 3,5’ 3,5 5 )
5) On additionne les rangs obtenus pour T : w0 = 1,5’ + 1,5’ + 3,5’ = 6,5’

Pour établir si l’effet w0 est significatif, on calcule la distribution de randomisation de la mesure w.
Dans ce cas, plus w est petit, plus le traitement est efficace.
Le procédé est similaire à celui développé pour les réponses binaires. Les valeurs probables de w se calculent grâce à un ordinateur généralement et leur distribution se présente sous la forme d’une courbe de Gauss.
En fait, la méthode de calcul de la distribution de randomisation est aussi utilisée pour des réponses quantitatives. Plutôt que de mesurer la différence d, on mesure la différence entre les médianes ( ou des moyennes)
On procède donc de la même manière pour w que pour d.
La mesure d’effet à partir de w s’appelle statistique de test de Wilcoxon.


Remarques et compléments :

Le procédé que nous avons décrit est un test statistique de l’hypothèse H0 (=l’effet est nul) basé sur une randomisation.

Erreur de type I
Il peut arriver qu’un traitement sans effet produise un effet significatif. La probabilité de ce type d’erreur (erreur de type I ) est toutefois plus petite que le seuil choisi.

Erreur de type II
Il peut aussi arriver qu’un traitement efficace ne soit pas déclaré comme significatif. La probalité de ce type d’erreur (erreur de type II ) peut être réduite en choisissant la taille des 2 groupes de sujets de façon appropriée.

La randomisation
Dans l’exemple didactique, si les sujets soumis au traitement T sont dans un état favorable à un succès alors que ceux soumis au placebo ne le sont pas, il y a non compatibilité totale entre les groupes T et S. Cependant, cela est évité grâce à la randomisation.
Dans les essais cliniques, la probabilité de non-comparabilité est généralement faible.
Cependant, la randomisation n’assure pas l’équilibre avec certitude. Il convient donc de vérifier que les facteurs connus soient bien répartis entre les groupes.

Les conclusions du test : les étendre ?
La relation de cause à effet tirée d’un test de randomisation est strictement valable pour les sujets utilisés dans l’essai. Ces conclusions peuvent être étendues (inférées) à une population mère si les sujets forment un échantillon aléatoire de la population mère. Malheureusement, cela est souvent impossible.
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
David
Étudiant travailleur


Nombre de messages : 77
Age : 32
Localisation : lausanne / gruyères
Date d'inscription : 22/03/2006

MessageSujet: Re: Statistiques Marrazzi   Dim 2 Juil à 16:45

III. Inférences pour tableaux de comptages simples

1. Comparaison de 2 taux

On considère 2 populations (ou sous-populations) : P1 et P2
Les individus ont ou n’ont pas un certain caractère C
On souhaite comparer la probabilité de C dans la population P1 et P2 : p1= P1(C) ; p2=P2(C)

On procède pour cela à un échantillonnage qui permettra de faire des estimations de p1 et p2.
On prend donc un échantillon ε1 de taille n1. dans P1 et un echantillon ε2 de taille n2. dans P2

On a donc :
-un échantillon ε1 de taille n1. (n1. = n11 + n12)
dont une partie présente le caractère C : n11
et une partie ne le présentant pas : n12

-un échantillon ε2 de taille n2. (n2. = n21 + n22)
dont une partie présente le caractère C : n21
et une partie ne le présentant pas : n22

A partir de ces échantillons, on peut calculer des estimations des taux :
p^1= n11/ n1. et p^2= n21/ n2. sont des estimations de p1 et p2

On procède à un échantillonnage de manière à pouvoir ensuite faire un « inférence » : transfert des résultats de l’échantillon à la population.

Cadre théorique :
• Les vraies valeurs de p1 et p2 sont inconnues : on formule donc une

hypothèse : H0 : p1 = p2
C’est une hypothèse dite nulle.

On utilise une règle de décision ou test statistique pour accepter ou refuser H0 en s’appuyant sur p^1 et p^2 et la mesure d’écart standardisé :
z = (p^1 – p^2) / √ [ p^(1 - p^ ) ( 1/ n1. + 1/ n2.) ]

où p^ est une estimation de C commune à P1 et P2
p^ = ( n11 + n21 ) / (n1. + n2.)


• Si on rejette H0, on accepte une hypothèse alternative H1 :
H1 : p1 ≠ p2
ou bien : H1 : p1 < p2


• Deux types d’erreurs sont possibles :
-rejeter une hypothèse nulle vraie : erreur de type I
-rejeter une hypothèse nulle fausse : erreur de type II

L’erreur de type I peut être contrôlée grâce au test suivant.

Dans un cas d’échantillonage, si p1 = p2 , z suit une distribution gaussienne.
On peut procéder à un bilatéral ou unilatéral :


Test bilatéral :

Hypothèse :
H0 : p1 = p2 contre H1 : p1 ≠ p2

La règle de décision :
-Fixer un niveau α (par exemple 5%)
-Rejeter H0 si z < -zα/2
ou si z > zα/2

La probabilité de rejeter H0 lorsqu’elle est vraie (erreur de type I) est :
Prob(z < z < -zα/2 ou si z > zα/2 ) = α
ayant défini zα/2 de la façon suivante :
α = 10% : zα/2 = 1,645
α = 5% : zα/2 = 1,960
α = 1% : zα/2 = 2,576
Donc dans le cas de α = 5%, H0 est acceptée si -1,96 < z < 1,96
sinon, on considérera une erreur de 5%


Test unilatéral :

Hypothèse :
H0 : p1 = p2 contre H1 : p1 > p2

Règle de décision :
-Rejeter H0 si z > zα
La probabilité de rejeter H0 lorsqu’elle est vraie (erreur de type I) est :
Prob(z > zα ) = α
Ayant défini zα de la façon suivante :
α = 10% : zα = 1,282
α = 5% : zα = 1,645
α = 1% : zα = 2,326

Si H1 est vrai, il y a plus de chances de rejeter H0 (par rapport au test bilatéral) car zα < zα/2
Donc la probabilité d’erreur de type II est plus faible que dans un test bilatéral.


2. Indépendance de deux caractères

On considère une seule population P.
Les individus ont ou n’ont pas les caractères A et B.
Question : est-ce que A et B sont indépendants ?
P( A n B) = P(A) P(B)
P( A n B) = P(A) P(B-)
P( A- n B) = P(A-) P(B)
P(A- n B-) = P(A-) P(B-)
On prend un échantillon aléatoire E de taille n..


On fait une table de comptages avec les données

_________B______B-_____Total

A_______n11____n12_____n1.
A-______n21____n22_____n2.

Total:____n.1____n.2_____n..

A partir des données, on procède à des estimations :
Taux Estimation de
p^11 = n11/n.. P(A n B)
p^12 = n12/n.. P(A n B-)
p^21 = n21/n.. P(A- n B)
p^22 = n22/n.. P(A- n B-)
 Ces 4 probabilités sont les probabilités conjointes sur le tableau

p^1 = n.1/n.. P(A)
p^2 = n.2/n.. P(A-)
p^1 = n.1/n.. P(B)
p^2 = n.2/n.. P(B-)
 Ces 4 probabilités sont les probabilités marginales sur le tableau

Pour tester H0 il est donc raisonnable s’utiliser les écarts
p^11 – p^1. p^.1
p^21 – p^2. p^.1
p^12 – p^1. p^.2
p^22 – p^2. p^.2

Les différences doivent être petites si les caractéristiques sont indépendantes. On fait donc la somme des carrés des différences (formule un peu plus compliquée)

Résultat théorique :
Si H0 est vraie, la somme des « écarts quadratiques standardisés » a approximativement une distribution de χ2
χ2 = (p^11 – p^1. p^.1)2 / (p^1. p^.1 / n..) + (p^12 – p^1. p^.2)2 / (p^1. p^.2 / n..) + (p^21 – p^2. p^.1)2 / (p^2. p^.1 / n..) + (p^22 – p^2. p^.2)2 / (p^2. p^.2 / n..)


Test :

Hypothèse :
H0 : A et B sont indépendants

Règle de décision : Rejeter H0 si χ2 > χ2α
La probabilité d’erreur de type I est α

Remarques :
1) La probabilité de ne pas commettre une erreur de type II (puissance) croît en augmentation la taille de (des) l’échantillon(s)

2) Pour le calcul : χ2 = n..(n11n22 – n12n21)2 / (n1.n2.n.1n.2) = z2
χ2α = χ2α/2

3) A et B indépendant signifie aussi P(B│A) = P(B│A-)
On peut donc tester H0 en utilisant le test pour la comparaison de 2 taux :
p1 = P( B│A) et p2 = P( B│A-)

4) A et B indépendant signifie aussi P(A│B) = P(A│B-)
On peut donc tester H0 en utilisant le test pour la comparaison de 2 taux :
p1 = P( A│B) et p2 = P( A│B-)

Une étude basée sur un seul échantillon d’individus avec/sans A et B est souvent appelée transversale.
Si A est un facteur antécédent à B, l’étude qui compare un échantillon (d’individus) avec A à un échantillon sans A est appelée prospective, tandis que l’étude qui compare un échantillon avec B à un échantillon sans B est appelée rétrospective.
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
Contenu sponsorisé




MessageSujet: Re: Statistiques Marrazzi   

Revenir en haut Aller en bas
 
Statistiques Marrazzi
Voir le sujet précédent Voir le sujet suivant Revenir en haut 
Page 1 sur 1
 Sujets similaires
-
» Statistiques cumul de neige moyen
» Du mauvais usage des statistiques par Nadine Morano
» Statistiques et probabilités ?
» double autocorrelation et validité des tests statistiques
» Formation Statistiques Appliquées

Permission de ce forum:Vous ne pouvez pas répondre aux sujets dans ce forum
Médecine :: Archives :: Module 5 (2005-2006) :: Introduction à la statistique médicale-
Sauter vers: