Méthode Foret-Floue-T-norme
Descriptif de la méthode Foret-Floue-T-norme
Proposée par Christophe Marsala (LIP 6).
Pour chacune des 10 bases:
- le fichier d'apprentissage SHEP_i.data a été rééchantilloné: tous
les EVENT (97 ou 96) ont été conservé et un nombre correspondant (97 ou
96) de NO_EVENT a été tiré aléatoirement pour générer donc un fichier
d'apprentissage (shepi_j) contenant autant de EVENT que de NO_EVENT.
Ceci a été fait 21 fois (donc shepi_j, avec j allant de 1 à 21). 21 fois
car 97x21>1900 (nombre de NO_EVENT en apprentissage). J'aurais pu faire
100 fois.
On a donc ici 21 bases d'apprentissage pour un seul SHEP_i.
- on construit un arbre flou (sans aucune optimisation de paramètre)
par base d'appretissage: on récupère 21 arbres flous arbrei_j.
- chaque arbre arbrei_j est utilisé pour classer les exemples du
fichier de test SHEP_i.test.
- pour chaque exemple de SHEP_i.test, on comptabilise le nombre de
fois n où il a été bien classé (vote). Si n>10, on considère que
l'exemple a été bien classé par la forêt.
Lors de la classification, j'ai utilisé la méthode dite t-norme :
l'exemple est diffusé sur plusieurs branches, un degré d'appartenance
est calculé pour chaque branche et les résultats pour la classification
sont agrégés avec ici la t-norme de Zadeh.
Résultats de la méthode Foret-Floue-T-norme
Mesures calculées à partir de ce fichier de résultat.
Matrice de confusion
| Classés EVENT | Classés NO EVENT |
---|
Exemples EVENT | 75.00 | 32.00 |
---|
Exemples NO EVENT | 969.00 | 1154.00 |
---|
Mesures sur la matrice de confusion
Mesures | Scores obtenus | Rangs observés |
Sensibilité | 70.09 % | - |
Spécificité | 54.36 % | - |
Indice de Youden | 24.45 | 2 / 8 |
Précision | 7.18 % | - |
F-mesure | 13.03 % | 4 / 8 |
Proximités avec les autres méthodes
Page produite à partir des données du mardi 17 février 2004 à 10h21.