Accueil » AnnĂ©es 2011 Ă  ... » Chroniques » Chronique Ă  propos de l’ouvrage « Analyse Statistique Implicative » de RĂ©gis GRAS & all

Chronique à propos de l’ouvrage « Analyse Statistique Implicative » de Régis GRAS & all

Lundi 17 janvier 2011   

Chronique:  Pour saluer « Analyse Statistique Implicative » par Régis Gras,

Analyse Statistique Implicative : Une méthode d’analyse des données pour la recherche de causalités, Régis Gras, Jean Claude Régnier, Fabrice Guillet et all, Revue des Nouvelles Technologies de l’Information RNTI E-16  Cépaduès éditions ».

Le nouvel ouvrage publié sous la direction de Régis Gras sur l’analyse statistique implicative vient de paraître. Avec Jean Claude Régnier, Fabrice Guillet et de nombreux autres auteurs ils ont fait un effort considérable (496 pages) pour livrer un ouvrage de référence, sur cette question  qui arrive maintenant à maturité.

Les chercheurs y trouveront
-         d’abord une très substantielle et solide partie théorique de dix chapitres, présentée de façon très claire par Régis Gras et Jean Claude Régnier
-         ensuite, douze chapitres de compléments et d’extensions signés de nombreux auteurs
-         enfin dix chapitres d’applications à différents domaines : à la didactique à la psychologie, à la sociologie, à la bioinformatique et à l’histoire de l’art

Vestiges du néo-mythique

Le Cro-magon que je me sens devenir espère que vous lui pardonnerez ce misérable à-peu-près .

L’homme a agi avant de parler, il a parlé avant d’écrire.
Il a écrit avant de prouver et prouvé avant que le savoir devienne Science…
Mais quelle preuve faut-il donner que les connaissances précèdent leur formulation ?

C’est un vrai plaisir de voir s’épanouir un champ de fleurs là où on n’a semé jadis dans un petit coin et sans trop y penser, que quelques maigres graines incertaines. Je ne résiste pas au plaisir d’évoquer ici les souvenirs personnels qu’évoque ce splendide ouvrage.

La trace de mes premières réflexions sur les quasi implications se trouve dans le Bulletin de Psychologie (282 XXIII 1969-1970 n°6-8, pages 460-473). J’essayais très maladroitement d’aménager le modèle de Guttman pour analyser une enquête menée par deux amis psychologues. Ce texte ne présente aucun intérêt car mon bagage de connaissances de statistiques était des plus insignifiants. Il témoigne seulement d’une préoccupation précoce et permanente.

J’avais besoin d’analyser des observations recueillies dans des suites de leçons ou d’exercices que Gérard Deramecourt avait réussi à faire utiliser dans une trentaine de classes dans la région de Périgueux sur un plan tiré de mon livre de 1965 chez Dunod. Ces chroniques de l’activité des élèves et du professeur étaient presque toujours questionnées, par les professeurs, du point de vue de leur ordre et en termes de causes et d’effets. Une corrélation aurait pu sembler suffire, l’effet étant la manifestation la plus récente, mais les processus observés étaient récursifs. M.P Franchi-Zanetacci dans son mémoire (1978) interrogeait les méthodes de construction des séquences d’activités didactiques. Nous tracassions donc ces « dépendances » avec diverses méthodes, dont l’indice H de Loevinger ou encore avec des enquêtes auprès des professeurs par la méthode des juges. Gérard Vinrich publia plus tard un bon article de synthèse à ce sujet (Vinrich, G. Dépendances didactiques. Mathématiques et Sciences Humaines, 57 (1977), p. 43-58)[1].

Le cours de Statistiques aux étudiants du DEA de didactique des mathématiques débuta dès 1975 par des « fiches d’exemples de calcul » couvrant un large spectre de méthodes adaptées à de petits échantillons mais peu familières aux professeurs de mathématiques (analyses factorielles méthodes non paramétriques,..). J’ai fait très vite appel à Régis Gras pour relayer mon travail d’amateur. Il nous revint bientôt avec la solution : un indice d’implication entre deux variables binaires qui possédait une distribution modèle parfaitement établie. C’était pour lui, pour moi et pour un certain nombre de didacticiens des mathématiques le départ d’une aventure riche et passionnante. Tandis qu’il étendait son indice à des variables et à des groupes de variables numériques, Ratsimbah Rajhon collaborait à la création de Chic et utilisait cet instrument pour étudier avec moi un effet d’obstacle entre deux conceptions des rationnels.

Tandis qu’avec d’autres valeureux chercheurs Régis développait et raffinait ses méthodes, je me préoccupais d’un problème propre aux statistiques modernes où on recueille et traite des données diverses sans avoir au préalable pu les organiser en plans d’expériences assujettis à des hypothèses précises comme dans les méthodes classiques. J’ai donc introduit l’usage d’ « une analyse a priori des variables observées » dont j’ai rendu compte dans ma thèse.

Il s’agit de comparer ce qui ne dépend que de la contingence (ce que nous dit le tableau de statistique) avec ce qui était attendu a priori manifesté par le choix des variables observées.

Chaque variable observable (l’espace à expliquer) présente un rapport plus ou moins étroit avec un ensemble de variables explicatives (l’espace explicatif) avec lequel on envisage de le représenter. Une matrice dite « a priori » exprime ces incidences.

L’analyse factorielle (la même méthode que celle qui sera utilisée avec les observations) de cette matrice a priori montre les dépendances plus ou moins étroites entre ces explications.

En rendant visible les liaisons entre les variables explicatives, cette analyse indique dans quelle mesure les conditions réalisées sont éloignées d’un plan d’expérience équilibré. En plongeant cet espace explicatif dans l’espace des résultats observés (a posteriori), on peut apprécier la valeur de l’espace explicatif avancé a priori et donc corriger les conclusions.

En fait des matrices a priori peuvent être dressées après le recueil des résultats, et leur pouvoir explicatif mis à l’épreuve. Elles représentent alors des modèles explicatifs parmi d’autres, que l’on peut finalement accepter modifier ou rejeter.

La mise a l’épreuve a posteriori des modèles explicatifs a priori, établit un lien entre les analyses factorielles et les méthodes inférentielles classiques.

Avec Régis Gras et Jean Claude Régnier, Filippo Spagnolo a repris son étude de l’hypothèse que « le postulat d’Eudoxe-Archimède pourrait constituer un obstacle épistémologique ». Ils ont construit ensemble une mesure de l’écart entre explication et contingence, et doté cette mesure d’un test statistique convainquant.

Les autres auteurs me pardonneront de ne pas rendre compte de tous les aspects nouveaux que comporte cet excellent ouvrage. J’en serais incapable car depuis une dizaine d’années je n’ai plus suivi les progrès de ce domaine que d’assez loin. D’ailleurs comme pour d’autres sujets, quand je m’avise de faire le point sur une question ou sur un concept que j’ai cru nouveaux, l’abondance des articles et des suggestions parus par la suite (je ne dis pas à la suite) m’a vite découragé (comme avec la notion de contrat).

Mes lecteurs ne m’en tiendront pas rigueur non plus j’espère.

Ici Régis Gras, Jean Claude Régnier, Fabrice Guillet et leurs collaborateurs font dans leur ouvrage un excellent travail de synthèse et de prospective qui, j’en suis sûr, aidera les chercheurs de nombreux domaines.

Guy Brousseau


[1]http://archive.numdam.org/ARCHIVE/MSH/MSH_1977__57_/MSH_1977__57__43_0/MSH_1977__57__43_0.pdf