diaporamaMiscDM
 
◃  Ch. 2 AD  ▹
 

Entropie croisée

  • Issue de la théorie de l'information (Shannon)
  • Mesure l'homogénéité entre deux distributions de probabilités
  • L'entropie d'une variable aléatoire est définie par :
    Entropie d'une variable aléatoire
  • On estime la probabilité d'une modalité par son ratio (poids) dans l'échantillon traité
  • Exemple avec la séquence de répartition des probabilités suivante :
    P10.000.050.10...0.951.00
    P21.000.950.90...0.050.00
    On peut observer l'évolution de la courbe de la fonction d'entropie
    Evolution de l'entropie d'une source binaire
  • Le gain d'information apporté par une variable est alors représenté par la différence entre l'entropie de cette variable et l'entropie de cette même variable conditionnée par la classe
    Gain d'information
  • La meilleure partition correspond à la variable qui maximise ce gain d'information