Evaluation de l’incertitude : du qualitatif au quantitatif. Une réflexion des linguistes et des psychologues

Laurent DUMERCY, Elisabetta CARPITELLI (UMR 7320 – BCL «Bases, Corpus, Langage »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


 Que l’information étudiée soit de nature qualitative ou quantitative ou se situe sur un gradient entre ces deux extrêmes, toute donnée est potentiellement incertaine et ne peut que croître à chaque étape de l’étude, de l’acquisition à la publication, si l’on ne met pas en oeuvre des méthodologies spécifiques visant à mieux la contrôler. Cependant, suivant la nature de la donnée, les méthodologies de contrôle et d’évaluation de l’incertitude diffèrent par le moment où elles sont invoquées. Ainsi, de façon très globale, le passage (progressif) du qualitatif au quantitatif décale vers l’amont le moment fort ou privilégié — mais pas exclusif — où la nécessité (ressentie) d’appréhender l’incertitude intervient. Cela signifie que l’on va passer progressivement d’une évaluation de l’incertitude lors de la recherche d’une contradiction sur les résultats d’une étude à l’évaluation de l’incertitude des données, en passant par l’évaluation de l’incertitude dans les processus et les méthodologies traitant l’information. Toutes les disciplines présentes à BCL (de l’énonciation à la psychologie cognitive en passant par la dialectologie et la logométrie) évaluent donc l’incertitude tout au long du processus de compréhension, que cela soit de façon implicite ou formelle, bien que le moment privilégié de la critique, de la contradiction entre spécialistes, puisse varier selon le domaine disciplinaire.

En linguistique, les données initiales (textuelles ou orales) sont posées comme « vraies » quand bien même elles peuvent recevoir d’office l’étiquette de « douteuse » (erreur de langage, pollution par la norme du français en dialectologie) ; elles sont enregistrées sur des supports différents selon leurs natures afin de pouvoir revisiter leurs interprétation. Comment supposer — chez les dialectologues par exemple — qu’un locuteur aurait dû utiliser une certaine forme à l’oral plutôt qu’une autre ou qu’une deuxième version d’un ouvrage d’auteur — pour les spécialistes de l’énonciation — est meilleure que la première. En psychologie cognitive, si la conservation des données est aussi nécessaire pour permettre une révision, des données peuvent être éliminées si elles sont jugées suspectes. En linguistique, c’est aux premières phases de l’interprétation que commence le processus d’évaluation de l’incertitude. Dans le cas d’une approche énonciative, par exemple, il s’agit surtout d’admettre qu’il n’existe pas un texte mais plusieurs formes d’un même texte. Celui‐ci est alors étudié en comparant ses différentes versions et en constituant un corpus de référence, nécessairement arbitraire : le chercheur ne dispose que de son intuition pour choisir quels seraient les éléments pertinents que l’on pourrait opposer pour faire émerger les faits recherchés. L’arbitraire dans la constitution d’un corpus se retrouve aussi en logométrie, bien que sans doute un peu amoindri par la possibilité de prendre en compte un grand nombre de textes de référence grâce à l’automatisation des traitements d’extraction des données. Bien que la comparaison d’attestations dialectales proches du point de vue spatial aussi bien que formel et leur étude fondée sur les règles de l’évolution phonologique ne puissent amener à l’exclusion d’une « intruse », la validité et la représentativité de cette dernière est au moins modérée par ces démarches.

Dans le cadre de la psychologie cognitive, si bien sûr les données s’interprètent dans la cadre d’une théorie, le principe essentiel est « pas de sur‐interprétation ». Les données forgent la théorie bien qu’il reste nécessairement du flou sur les méthodes, statistique et expérimentale et dans les interprétations suivant l’approche théorique retenue. Dans l’approche énonciative, les résultats d’une analyse sont le lieu privilégié pour l’évaluation de l’incertitude, par le biais de la mise en contradiction. Dans le cadre de la psychologie cognitive et peut‐être davantage dans le cadre des neuro‐sciences, une fois les données validées et leurs interprétations effectuées, le résultat d’une analyse devient directement utilisable.

Bibliographie


Linguistique :

– Mathieu‐Colas M. (2008), « De l’incertitude en linguistique : le cas des variantes », in Gaston Gross et Klaus U. Schulz (éd.), Linguistics, Computer Science and Language Processing. Festschrift for Franz Guenthner on the Occasion of his 60th Birthday, College Publications, London: 203‐217

– Mellet S. (éd.) (2002), Corpus et recherches linguistiques, Corpus n. 1 (numéro entier de la revue Corpus)

– Turchetta B. (2000), La ricerca sul campo in linguistica, Roma, Carocci.

Psychologie :

– Lecoutre Bruno. Training students and researchers in Bayesian methods for experimental data analysis. In:Journal of Data Science, april 2006, Vol 4, N°2. pp.147‐168

– Wilkinson Leland and the Task Force on Statistical Inference. APA Board of Scientific Affairs.

– Statistical Methods in Psychology Journals : Guidelines and Explanations. In: American Psychologist, January 1999, N°54, pp. 594‐604

Logométrie :

– Lafon Pierre. Analyse lexicométrique et recherche des cooccurrences. In: Mots, octobre 1981, N°3. pp. 95‐148.

– Lafon Pierre. Sur la variabilité de la fréquence des formes dans un corpus. In: Mots, octobre 1980, N°1. pp. 127‐165.

Énonciation :

– Benveniste Emile. L’appareil formel de l’énonciation. In: Langages, 5e année, n° 17. . L’énonciation. pp. 12‐18.

Share Button