Méthode Balanced-bagging

Descriptif de la méthode Balanced-bagging

Proposée par Florence d'Alché-Buc (Génopôle Evry) et Christophe Marsala (LIP 6).

L'idée est d'utiliser le bagging sur des classifieurs de base mais en sous-échantillonnant en faveur de la classe la moins bien représentée. Cette idée avait déjà été introduite par Japkowicz sous une forme plus brute. Nous l'avons ici appelée Balanced-bagging.

Les paramètres déterminés grâce à la cross-validation sont les suivants pour SHEP (Nota bene : tous les jeux de paramètres n'ont pas été testés) : On tire 1/25 (environ 76) exemples de la classe sur-représentée et on prend toute la base de la classe sous-représentée (environ 96) et on construit 20 sous-échantillons.

Le classifieur de base utilisé ici est le SVM implémentation SMO (John Platt) implémenté sous Weka utilisé avec une constante C=1.

Le défaut de cette méthode est qu'elle tire aléatoirement une proportion d'exemples sans tenir compte du fait que dans certaines régions de l'espace d'entrée, cette proportion devrait être modifiée.

Résultats de la méthode Balanced-bagging

Mesures calculées à partir de ce fichier de résultat.

Matrice de confusion

Classés EVENTClassés NO EVENT
Exemples EVENT60.1246.88
Exemples NO EVENT971.931151.07

Mesures sur la matrice de confusion

MesuresScores obtenusRangs observés
Sensibilité 56.19 %-
Spécificité 54.22 %-
Indice de Youden 10.41  6 / 8
Précision 5.83 %-
F-mesure 10.56 %6 / 8

Proximités avec les autres méthodes

MéthodesProximités
GloBoost68.81 %
Regression59.00 %
Foret-Floue-stricte58.26 %
Pocock58.10 %
Framingham57.94 %
Foret-Floue-T-norme57.68 %
C4.554.19 %

Page produite à partir des données du mardi 17 février 2004 à 10h21.