Synthèse
Volume 16, Numéro 1, Pages 9-15
2010-10-31
Auteurs : Rahmani Fouad Lazhar . Chibat Ahmed .
Dans cet article nous étudions le moyen de mesurer quantitativement l’information apportée par l’observation lors de l’identification des lois qui régissent les phénomènes aléatoires. A partir de l’étude sur une variable, nous construisons le concept de gain d’information sur la notion d’entropie relative. Nous démontrons que, lors de l’affinement de l’étude par désagrégation des modalités du caractère, il existe un seuil pour les probabilités rattachées aux différentes modalités. Ce seuil détermine les situations où le gain d’information est définitif et celles où il est illusoire. Nous montrons comment cette étude peut s’étendre au cas de plusieurs variables. Nous en déduisons une méthode quantitative de sélection, pas à pas, de variables, respectant le principe de l’entropie maximale. Cette méthode aboutit à l’élaboration, après pré enquête, de questionnaires parcimonieux susceptibles de récolter la plus grande part d’information.
shannon information; entropie relative; entropie maximum; clustering
Khaled Mecif
.
Moufida Yahiaoui
.
pages 38-50.
Maalem Youcef
.
Madani Hakim
.
Mehemmai Mohammed
.
pages 21-39.
Belouard Ali Nabil
.
pages 45-58.
Smail Rabah
.
Aïssani Amar
.
pages 73-74.