L’incertitude en archéologie

Frédérique BERTONCELLO (UMR 7264-CEPAM « Cultures et Environnements : Préhistoire, Antiquité, Moyen Âge »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


« L’archéologie ayant l’objectif de reconstituer la totalité des composantes du système d’une société du passé, possède l’étrange propriété de regrouper quasiment toutes les disciplines scientifiques et de les appliquer sur des données partielles, biaisées et peu représentatives et sur des processus parfois non étudiables ». Cette phrase, tirée du récent Manuel d’Archéologie de F. Djindjian (2011), résume de manière très juste les enjeux de la recherche archéologique, au sein desquels l’incertitude est omniprésente. L’incertitude est en effet inhérente, consubstantielle, aux données mobilisées par l’archéologie. Elle revêt plusieurs formes et se manifeste à différents niveaux dans la production de connaissances. Pour la première table ronde du projet « Faire Sciences avec l’incertitude », nous ferons un bilan des enjeux spécifiques de l’incertitude en archéologie en proposant une classification des types d’incertitude qui affectent les données mobilisées et les processus de connaissance dans cette discipline.

1. L’incertitude des données
Les données mobilisables par l’archéologue pour restituer le fonctionnement des sociétés anciennes ne sont qu’un reflet partiel du fonctionnement de ces sociétés. La population (au sens statistique) analysée n’est donc qu’un échantillon de la population initiale (Gallay 1986), la difficulté résidant dans l’impossibilité d’évaluer la représentativité de l’échantillon analysé.

Des données lacunaires

Les vestiges archéologiques disponibles pour l’étude ne représentent qu’une partie seulement des activités humaines passées, celles qui ont laissé des traces suffisamment durables pour nous parvenir. Les corpus disponibles pour l’étude sont en outre lacunaires dans la mesure où un ensemble de processus taphonomiques – facteurs post‐dépositionnels d’origine naturelle ou anthropique – interfèrent sur la conservation des vestiges archéologiques après leur dépôt. À cela s’ajoutent les biais liés à l’intensité variable des recherches et aux stratégies d’échantillonnage mises en œuvre.

Des données ambigües

L’interprétation de la signification d’un objet archéologique n’est pas univoque mais peut donner lieu à plusieurs interprétations concurrentes (ambigüité entre la forme et la fonction). Les explications proposées par l’archéologue, depuis la fonction d’un objet jusqu’au fonctionnement d’une société, sont donc toujours du domaine du plausible, non du certain. Le degré d’incertitude des interprétations proposées va croissant lorsque l’on passe du domaine technologique au domaine économique et social et culmine dans la sphère religieuse et symbolique.

Des données imprécises

L’imprécision peut être liée à la mesure. En archéologie elle affecte principalement la localisation des objets étudiés (au sens large, depuis l’artefact jusqu’au site en passant par l’édifice et le squelette), dans le temps (datations archéométriques basées sur une mesure du taux de radiocarbone résiduel par exemple) et dans l’espace (précision de la localisation autorisée par les différentes techniques de géolocalisation : repérage manuel sur une carte, boussole, GPS, tachéomètre, Lidar etc.). L’imprécision peut aussi affecter la caractérisation des objets quand cela implique la mesure de similitudes/dissemblances par rapport à une population de référence (par exemple pour l’estimation de l’âge du défunt à partir de restes osseux).
L’imprécision peut également provenir du caractère vague, mal défini des catégories utilisées pour caractériser, dater, localiser un objet (par exemple des datations par phases chrono‐culturelles du type « gallo‐romain », ou la polysémie qui caractérise la notion de « site archéologique »).

Des données hétérogènes, sources d’incertitude

Le recours, usuel en archéologie, à des données de nature diverses issues de sources variées (archéologiques, textuelles, cartographiques, environnementales etc.) ajoute de l’incertitude quand il s’agit de les confronter, dans la mesure où chaque type de source présente des résolutions spatiales et chronologiques différentes et des niveaux de précision variés.

Des séries discontinues

Le niveau de renseignement/d’information disponible sur les différents objets d’un même corpus est rarement homogène. Cela nécessite, pour faire des comparaisons, de choisir le seuil à partir duquel un objet est considéré comme suffisamment renseigné pour être comparable aux autres, ce qui implique de définir le plus petit dénominateur commun afin de transformer un corpus hétérogène en un corpus homogène au niveau d’analyse retenu (relation entre niveau d’incertitude et niveau d’analyse). Cette généralisation entraîne généralement une perte d’information et donc une diminution de la précision.

2. L’incertitude des processus
La méconnaissance des processus de fonctionnement des systèmes/phénomènes étudiés.

En raison des filtres successifs (cf. supra) existant entre les sociétés étudiées (l’objectif de connaissance) et les données mobilisables (les moyens de la connaissance), une part plus ou moins importante du fonctionnement des phénomènes ou systèmes étudiés échappe à la connaissance et il n’est pas certain que les processus supposés à l’oeuvre dans la transformation de ces systèmes jouent effectivement le rôle qu’on leur prête. Cela est d’autant plus crucial en archéologie qu’il n’y a pas de vérification possible de la réalisation future des scénarios envisagés (approche rétrospective ≠ prospective).

L’incertitude liée au raisonnement scientifique (processus d’analyse)

Le passage de la découverte d’un objet archéologique à son interprétation en termes de fonctionnement d’une société implique une succession d’inférences (par exemple passer de la découverte de charbons de bois à la restitution de la gestion des ressources ligneuses par une communauté), dans desquelles interviennent non seulement les connaissances et l’expertise de l’archéologue, mais également sa subjectivité, ses références culturelles et idéologiques, son fonctionnement cognitif etc.

Les réponses apportées à cette incertitude irréductible des données archéologiques ont varié et alimenté différents courants théoriques, depuis les approches prônant la constitution de très vastes corpus de données censés réduire l’incertitude par la recherche de l’exhaustivité dans la collecte et l’enregistrement des données (par ex. Demoule et al. 2002), les approches essentiellement descriptives refusant toute généralisation en raison de la complexité et de l’unicité des différentes cultures humaines (« Post‐processual Archaeology », Hodder 1991), jusqu’à celles mettant l’accent sur la nécessité de formalisation de la description – des données et des processus – (Gardin 1979) comme outil de réduction possible de l’incertitude permettant des confrontations et la mise en évidence de régularités, en se fondant notamment sur une approche systémique des sociétés (« Processual Archaeology» ou « New Archaeology », par ex. Clarke 1971, 1973). De développement plus récent, les approches visant à quantifier l’incertitude en recourant aux méthodes statistiques (calcul de probabilités, logique floue, approche bayesienne notamment) ont d’abord été utilisées. dans les domaines reposant sur des mesures (datations archéométriques, estimation de l’âge, etc.), avant d’être mises à contributions plus largement pour estimer la probabilité d’appartenance d’objets archéologiques (au sens large) à des catégories, fonctionnelles, chronologiques, culturelles etc. (par ex. Buck et al. 1996, Ejstrud 2005, Hatzinikolaou 2006). La modélisation apparaît également comme un outil prometteur en archéologie du fait de la non reproductibilité des phénomènes observés (à la différence des sciences expérimentales). Dans une démarche rétrospective, la modélisation permet en effet d’envisager la variété des « possibles », de tester différentes hypothèses, différents scénarios d’évolution du système étudié et d’en estimer ainsi la vraisemblance (van der Leeuw et Kohler 2007).

Bibliographie


– Buck C. E., Cavanagh W. G., Litton C. D., 1996 ‐ Bayesian approach to interpreting archaeological data. Chichester, Wiley.

– Clarke D., 1971 – Analytical Archaeology, London, Methuen and Co.

– Clarke D., 1973 ‐ Archaeology: the loss of innocence. Antiquity, 47, pp. 6–18.

– Demoule J.‐P., Giligny F., Le Hroeff A., Schnapp A., 2002 – Guide des méthodes de l’archéologie, Éditions de la Découverte, Paris, 300 p. ; réédition augmentée 2005 et 2009.

– Demoule J.‐P., 2005. L’archéologie, entre science et passion, collection Découvertes, Gallimard, Paris, 160 p.

– Djindjian F., 2011 – Manuel d’archéologie. Paris, Armand Colin (Collection U – Archéologie).

– Ejstrud B., 2005 ‐ Taphonomic Models: Using Dempster‐Shafer theory to assess the quality of archaeological data andindicative models. In : van Leusen, M., Kamermans, H. (eds.) ‐ Predictive Modelling for Archaeological Heritage Management: a research agenda. Rijksdienst voor het Oudheidkundig Bodemonderzoek, Amersfoort, p. 183‐194.

– Gallay A., 1986 – L’archéologie demain. Paris, Belfond.

– Gardin J.‐C., 1979 ‐ Une archéologie théorique. Paris, Hachette.

– Hatzinikolaou, E.G., 2006 ‐ Quantitative methods in archaeological prediction: from binary to fuzzy logic. In : N.W. Mehrer ‐ K.L. Wescott (eds.) ‐ Gis and Archaeological Site Location Modeling. CRC Press, Boca Raton, p. 437‐446.

– Hodder I., 1991 ‐ Postprocessual Archaeology and the Current Debate. In : Processual and Post‐Processual Archaeologies: Multiple Ways of Knowing the Past, Edited by R. Preucel, pp. 30–41. CAI Southern Illinois University at Carbondale, Occasional Paper No. 10.

– Testard A., 2012 – Avant l’Histoire. L’évolution des sociétés de Lascaux à Carnac. Paris, Gallimard.

– Van der Leeuw S. E., Kohler T., eds., 2007 ‐ The Model‐Based Archaeology of Socio‐Natural Systems. School of Advanced Research, Santa Fe, NM.

Share Button

La notion d’incertitude dans les sciences historiques

Arnaud BARTOLOMEI (EA 1193 – CMMC «Centre de la Méditerranée Moderne et Contemporaine »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


La notion d’incertitude peut être abordée de deux façons par l’historien : sous un angle épistémologique, d’abord, ce qui l’amène à s’interroger sur la valeur de la connaissance historique et le plus ou moins grand degré de « certitude historique » auquel il peut espérer parvenir en utilisant les sources auxquelles il a accès ; comme un objet scientifique, ensuite, lorsque la perception de l’incertitude dans les sociétés passées devient l’objet même de sa recherche. Les propositions de réflexion formulées par les historiens membres du CMMC, dans le cadre du projet de la MSH‐Sud Est, s’inscrivent dans ces deux perspectives que la présente contribution entend donc aborder successivement.

D’un point de vue épistémologique, l’incertitude occupe une position centrale dans la réflexion que l’historien nourrit sur sa propre pratique scientifique et sur sa discipline. Deux questions peuvent plus directement résumer la teneur de cette réflexion : dans quelle mesure est‐il certain qu’un fait historique s’est produit ? Dans quelle mesure est‐il certain qu’un fait historique devait se produire ? La première question renvoie à la construction de la vérité historique et à la scientificité même de la discipline. Depuis l’école dite « méthodique » de la fin du XIXe siècle, l’histoire prétend à un certain niveau de scientificité : la critique des sources et le respect d’un protocole scientifique rigoureux doivent en effet permettre à l’historien d’éviter les erreurs et, donc, de se livrer à une reconstitution fidèle et certaine des faits passés. Cette illusion scientiste, entretenue un temps par l’histoire sérielle chère à l’école des Annales, qui avait élargi la conception du phénomène historique en y incluant les faits économiques, démographiques, sociologiques et culturels, n’est cependant plus partagée, au sein de la communauté scientifique, depuis les remises en cause fondamentales du linguistic turn et de la microstoria : les sources sont de moins en moins perçues comme des indices ou des traces, permettant de reconstituer de façon certaine la réalité historique et, de plus en plus, comme des représentations discursives et orientées d’un réel à jamais
insaisissable. Dès lors, l’historien n’est plus certain que les « choses se sont passées ainsi » mais plutôt que les « choses sont exprimées ainsi dans les sources ». Les égodocuments (journaux intimes et autres écritures du for privé) qu’étudie Pierre‐Yves Beaurepaire constituent une sorte d’exemple paradigmatique du désenchantement qu’ont éprouvé les historiens vis‐à‐vis de leurs sources au cours des dernières décennies et des nouvelles orientations qu’ont suivies, en conséquence, les recherches historiques, puisque, comme il l’écrit, « la certitude a rapidement cédé la place à l’incertitude, lorsque les historiens en se familiarisant avec l’écriture du for privé ont mis en évidence les stratégies d’écriture, de scénarisation ou d’évitement des scripteurs ».

La reconstitution et la description du passé ne constituent cependant qu’une part restreinte du travail de l’historien qui est aussi, et peut‐être avant tout, une démarche d’explication et de compréhension du passé, à savoir de reconstitution des « chaînes causales » qui conduisent à l’occurrence d’un évènement ou d’un fait historique. En la matière, « le tournant critique » des années 1980 a également été révolutionnaire puisqu’il a mis à mal les implicites structuralistes et déterministes sur lesquels reposaient, à l’époque des Annales, les schémas explicatifs des historiens. A l’ère des certitudes, où « l’on s’imaginait que l’économique secrétait le social comme le foie sécrète la bile » (Jacques Dupâquier, 1993) et où les phénomènes historiques apparaissaient donc largement déterminés par leur environnement géographique, économique et culturel, succède, là aussi, une ère d’incertitudes, qui, en plaçant la focale sur la singularité des trajectoires individuelles et l’agency des acteurs, tend à remettre en cause les « grands discours » qui structuraient notre connaissance du passé.

L’opposition entre la « certitude » de la série quantitative et l’incertitude née du « tournant critique » ne constitue cependant pas nécessairement une impasse pour la recherche historique contemporaine qui peut aussi se réinventer en étant attentive aussi bien « à la norme qu’à l’écart à la norme, … à la trajectoire probable et à [ses] inflexions réelles » (P.‐Y. Beaurepaire, 2003) – et qui dispose grâce à l’informatique des instruments nécessaires pour y parvenir.

En tant qu’objet historique, c’est probablement dans le champ de l’histoire économique et, plus précisément, de l’histoire de la décision économique, que la notion d’incertitude a le plus retenue l’attention des historiens au cours des dernières décennies. Cette notion occupe en effet une position centrale parmi les paradigmes de l’économie dite néo‐institutionnaliste qui a eu une très grande influence, à travers les nombreux commentaires qu’ont suscités les travaux d’Oliver Williamson et de Douglass North, sur les historiens de l’économie. Les travaux développés depuis plusieurs années sur l’histoire des réseaux marchands offrent diverses illustrations de l’intérêt que peut représenter la notion d’incertitude pour appréhender, sous un angle nouveau, les pratiques des acteurs du commerce à distance de l’époque préindustrielle. Dans un monde dominé par la lenteur des communications et la faiblesse des recours légaux, l’incertitude constitue en effet la caractéristique première du commerce à distance, que les acteurs s’efforcent de réduire en collectant des informations sur les cours des marchandises et le crédit de leurs partenaires, en inscrivant leurs activités dans le cadre de réseaux de confiance, au sein desquels la réputation et la recommandation offrent des garanties, ou encore en concourant, par leurs pratiques, à la création d’institutions et de normes informelles permettant de limiter les comportements opportunistes de leurs partenaires et de réguler les échanges marchands. La notion de « coût de transaction » apparaît dès lors comme un instrument permettant de formaliser l’ensemble des coûts, monétarisés ou pas, engagés par un marchand pour sécuriser son accès au marché et réduire l’incertitude inhérente à toute transaction.

A l’intérieur de ce cadre théorique large, Silvia Marzagalli et Arnaud Bartolomei animent au sein du CMMC une réflexion sur la dynamique des réseaux marchands dans l’Europe des XVIIIe et XIXe siècles. Ils ont déjà livré diverses contributions sur la fonction des colonies de marchands étrangers dans la structuration des circuits commerciaux, le rôle de certaines professions du commerce – comme les capitaines de navire ou les voyageurs de commerce – dans l’établissement de relations commerciales nouvelles, les instruments mercantiles utilisés pour sécuriser les transactions et réduire l’incertitude marchande (comme la lettre de change, la presse mercantile ou la correspondance) et le recours aux institutions étatiques dans l’intermédiation marchande. C’est notamment dans cette dernière perspective que s’inscrivent les différents programmes de recherche actuellement en cours au sein du CMMC sur l’étude de la fonction consulaire en Europe et dans le monde méditerranéen aux époques moderne et contemporaine.

Share Button

Le poids de l’incertitude en économie : aspects théoriques et empiriques

Richard ARENA, Christian LONGHI (UMR 7321 – GREDEG « Groupe de Recherche en Droit, Economie et Gestion »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


En économie, la notion d’incertitude joue un rôle essentiel à deux niveaux extrêmement différents. Le premier renvoie à l’élaboration de la théorie économique et relève de l’étude des processus de décision, que ceux-ci aient lieu :

– dans le contexte du choix d’un agent économique isolé qui fait face à ce que l’on appelle les états du monde; il peut connaître ces états (prévision parfaite), ne pas les connaître mais être capable d’associer à ces états une distribution de probabilités (risque) ou ne pas les connaître et ne pas avoir cette capacité (incertitude). On se réfère alors à ce que l’on appelle la théorie de la décision largement sous-tendue parla conception calculatrice et substantive du choix rationnel individuel.

– dans le contexte d’un choix stratégique opéré par un agent économique qui prend également en compte les comportements d’autres agents également concernés par une interaction sociale donnée, à partir d’une anticipation stratégique relative aux choix de ces derniers; la distinction entre risque et incertitude demeure mais elle est largement conditionnée par la nature de la relation entre agents, c’est-à-dire, par les connaissances dont ils disposent et les croyances qu’ils adoptent; on se réfère alors à ce que l’on appelle la théorie des jeux.

– dans le contexte d’une décision qui n’est pas purement dépendante des comportements stratégiques des acteurs mais aussi des formes d’intéraction sociale des agents: confiance, mimétisme, influence, etc. Dans ce cas, les agents économiques sont dits hétérogènes, l’incertitude devient la règle et conditionne les comportements individuels, collectifs et sociaux. On se réfère alors à la théorie des intéractions économiques.

Ces trois contextes relèvent aussi bien de la micro que de la macroéconomie, même si cette dernière suppose la prise en compte du concept d’agent représentatif qui rend encore plus complexe le problème de la signification de l’incertitude en économie.

Plus récemment, de nouvelles approches sont apparues et modifient essentiellement le paysage. Il s’agit :

– De l’économie comportementale qui se développe, se diffuse considérablement et consiste à adopter comme point de départ les comportements observés tels par exemple qu’ils apparaissent sur les marchés et non une axiomatique des choix.

– De l’économie expérimentale qui se concentre dans quelques centres académiques et consiste à adopter comme point de départ les comportements économiques observés en laboratoire selon des protocoles prédéfinis supposant la prise en compte d’une axiomatique des choix.

Dans ces deux contextes, la notion d’incertitude ne se modifie pas mais elle joue un rôle grandissant couplé à celui d’apprentissage. Cette importance conférée à l’incertitude s’étend aussi aux cas où la notion de rationalité collective ou sociale se substitue à celle de rationalité individuelle.

Dans notre contribution, il s’agira en premier lieu de voir en quoi ces nouvelles approches ont pu modifier mais aussi complexifier la notion d’incertitude en économie.

Un deuxième niveau a trait à l’analyse des données, de l’incertitude ou de la qualité inhérentes aux données mobilisées, des contraintes qui pèsent sur la disponibilité de données, leur adéquation aux analyses développées, de la pertinence des modélisations et résultats obtenus, indépendamment des seuls problèmes de significativité statistique. Cette dimension liée à l’incertitude est particulièrement pertinente en économie, contrairement à ce que la production continue d’indices par les instituts pourrait laisser croire. Elle relève principalement de ce que l’on appelle l’économie appliquée.

L’économie a toujours été dans sa partie empirique essentiellement consacrée à l’observation des « économies réelles », à l’explicitation de leur fonctionnement, de leurs performances (croissance, exportation…), à l’établissement de prédictions sur leurs performances futures, à la vérification empirique des prédictions théoriques. Récemment deux courants nouveaux se sont développés, qui visent à réduire l’incertitude selon des modalités parfaitement opposées. Le premier est fondé sur la production de données d’expérience. Il s’agit de créer des environnements en laboratoire permettant d’isoler des éléments de décisions individuelles, visant essentiellement l’évaluation des modèles théoriques existants. Le second n’est à l’opposé pas préoccupé par l’analyse théorique ou la compréhension des phénomènes qu’il traite. Il s’agit de les prédire en utilisant toutes les données disponibles possibles, selon une démarche purement statistique, le meilleur modèle est sélectionné selon la pertinence de ses prédictions, quelles que soient ses variables explicatives. Ces démarches en termes de « data mining » ou de « nowcasting » se développent avec la multiplication des données disponibles.

Mais l’essentiel de l’analyse empirique reste centrée sur la représentation et l’observation des économies réelles. Il est bien évident que l’économie n’est jamais directement observable ni son fonctionnement connu ; tous les faits économiques sont construits, comme le sont leurs relations. L’observation des « économies réelles » n’est pas neutre, elle vise à produire des données pertinentes pour les théories qui sous-tendent leur représentation, et pour les politiques économiques qu’elles définissent. On présentera les caractéristiques essentielles des enquêtes présidant à la construction des appareils statistiques en économie, et les enjeux et limites liés à la production des données, au traitement des données, et à la modélisation. On illustrera notre propos avec l’analyse des territoires et de l’innovation en économie. La représentation économique et le rôle des territoires dans l’explication des performances économiques a considérablement évolué avec l’émergence de problématiques théoriques nouvelles, déplaçant les questions pertinentes, invalidant les connaissances de leur dynamique économique ou la vraisemblance des résultats acquis. Le renouvellement théorique implique le renouvellement des données nécessaires à l’observation de l’économie, à la mesure comme à la compréhension de son activité.

Bibliographie


– Arena R.and A. Festré (eds),Knowledge, Beliefs, and Economics, Edward Elgar: Cheltenham,U.K., 2007.

– Bańbura, M., Giannone, G., Reichlin L.,Nowcasting, Working Paper Series 1275, December2010.

– Eber, N., Willinger, M., 2012,L’économie expérimentale, Repères, 126p.

– Choi, H.,Varian, H., 2009,Predicting the Present with Google Trends, mimeo, April.

– Krugman, P., 1991, Geography and Trade, MIT Press.

– Morgenstern, O., 1972, Précision et incertitude des données économiques, Paris, Dunod.

– Moureau, N.,Rivaud-Danset, D., 2004, L’incertitudedans les théories économiques. Éditions La Découverte.

– OECD, 2005, Oslo Manual, Eurostat,OECD, Paris.

– Reinhart C. Rogoff K, 2010, « Growth in a Time of Debt », American Economic Review: Papers & Proceedings 100, May: 573-578.

– Vernon L. Smith, 1991, Papers in Experimental Economics, Cambridge University Pr.


Share Button

Introduction à la discussion générale et conclusion de la rencontre

Pierre LIVET (UMR 7304 – CEPERC « Epistémologie et Ergologie Comparatives »).

1ère Table Ronde «  L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

 

 

Share Button

Epistémologie de l’incertitude : raisonnement expérimental, raisonnement herméneutique, méthode indiciaire

Baptiste MORIZOT (EA 4318 – CRHI « Centre de Recherches en Histoire des Idées » ; UMR 7304 – CEPERC « Epistémologie et Ergologie Comparatives »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


Pour interroger l’incertitude en sciences humaines, il semble intéressant de passer d’abord par l’épistémologie des sciences naturelles incluant les propositions théoriques de Duhem, Popper, Bachelard, Canguilhem, et jusqu’à Bas Van Fraasen ; pour se fonder sur les acquis de cette tradition théorique ancienne et riche, qui fournit un pôle de comparaison nécessaire. L’incertitude y apparaitra dans son sens physique et métrologique (marge d’imprécision sur la valeur de la mesure d’une grandeur physique). Mais dans un second temps, et c’est l’essentiel, il est nécessaire d’adopter une perspective épistémologique spécifique aux sciences humaines, qui ne leur impose pas de l’extérieur les normes de scientificité des sciences expérimentales. Dans les sciences de l’homme, les types de raisonnement, et le régime d’administration de la preuve, ne sont pas et ne doivent pas être identiques à ceux des sciences de la nature. Cela a été montré dans un texte fondateur de Jean-Claude Passeron, Le raisonnement sociologique, Pour un espace non poppérien du raisonnement scientifique, inspiré notamment par Heinrich Rickert et Max Weber et, qui enjoint de penser pour les sciences humaines un « espace non poppérien du raisonnement naturel », où la scientificité d’une proposition n’est pas liée au seul critère de réfutabilité.

Ce qui permet de montrer qu’en sciences humaines, l’incertitude de la mesure se redouble d’une incertitude herméneutique, suivant le terme de Passeron, liée au travail conceptuel qui configure les données empiriques.

Pour comprendre cette spécificité des sciences humaines, qui est apparue très nettement dans l’organisation du cycle de travail sur l’incertitude, il faut revenir au constat de Passeron : les sciences humaines ne possèdent pas de langage protocolarisé. Par exemple, en physique, l’incertitude a des définitions formelles bien précises : en métrologie par exemple, elle désigne la marge d’imprécision sur la valeur de la mesure d’une grandeur physique. Alors qu’en sciences humaines, les échanges sur cette notion ont montré des significations polysémiques, de l’incertitude comportementale en économie, à l’incertitude de datation en archéologie. Cet espace du langage naturel, limité par le raisonnement expérimental et la cohérence des données empiriques, constitue précisément un espace non poppérien du raisonnement scientifique, celui des sciences de l’homme. Les sciences de l’homme ne peuvent se contenter d’un langage formel protocolarisé mais doivent s’exprimer, dans leurs synthèses, dans cette langue naturelle qui est celle du concept.

Qu’entend-on par langage naturel et langage protocolarisé? Par exemple, le concept de travail, en physique, est parfaitement formalisé : protocolarisé. Le travail d’une force est l’énergie fournie par cette force lorsque son point d’application se déplace (l’objet subissant la force se déplace ou se déforme). Il possède une définition mathématique qui l’insère dans un système de calcul cohérent de la dynamique newtonienne. Une force constante qui s’applique sur un objet parcourant un trajet rectiligne fournit un travail W : le Travail est égal au produit de la force F par le déplacement u.

Par contre, en sociologie ou en économie, le travail a des significations plurielles et mouvantes (l’activité rémunérée qui permet la production de biens et services – avec le capital, c’est un facteur de production de l’économie), en droit, le travail est un concept à bords flous, doté d’une polysémie qu’il n’est ni possible ni souhaitable de réduire complètement : doit-on faire l’hypothèse qu’il est nécessaire de disposer de concepts complexes pour approcher des entités complexes ?

Il s’agit de montrer qu’en ce qui concerne le concept d’incertitude, les sciences humaines ont d’autres choix que de se soumettre, suivant la formule de Passeron, au rêve nomologique de la physique, ou de céder à la divagation herméneutique.

Passeron défend une position épistémologique particulière qui articule dans une limitation mutuelle le raisonnement expérimental et le raisonnement herméneutique, à partir de la nécessité du langage naturel : c’est le « raisonnement sociologique » (Passeron propose le raisonnement sociologique comme une constante de toutes les sciences humaines, qu’il qualifie de sciences historiques : il est intéressant de noter que de ce point de vue, des disciplines comme la paléontologie ou la paléoanthropologie, traditionnellement classées dans la biologie, sont plus proches dans leur rapport à l’incertitude de l’archéologie et de l’histoire que de l’anatomie ou la physiologie : données empiriques qui sont des traces lacunaires, avec incertitude de datation et de représentativité, et interprétation/extrapolation nécessaire).

Si l’on fait dialoguer Popper et Passeron, l’on constate que l’application de l’épistémologie des sciences naturelles aux sciences humaines n’est pas pertinente : il existe un espace non poppérien du raisonnement scientifique, celui des sciences de l’homme – qui pose en termes originaux le problème d’une l’incertitude « sémantique ».

Dans un dernier temps, cette incertitude sémantique peut être pensée d’un point de vue méthodologique à partir des thèses de Carlo Ginzburg sur la méthode indiciaire, propre aux sciences humaines, décrite dans Mythes, emblème, traces : morphologie et histoire. Ce texte pointe le type de raisonnement et le style de problèmes qui caractérisent les sciences humaines, présentant l’incertitude, non comme une imperfection, mais comme un aspect essentiel du savoir acquis par les sciences historiques, profondément distinctes par là des sciences nomologiques, qui ne peuvent être exactes que par ce qu’elles peuvent reproduire leurs résultats en laboratoire – où il est si difficile de reproduire une révolution.

Share Button

Evaluation de l’incertitude : du qualitatif au quantitatif. Une réflexion des linguistes et des psychologues

Laurent DUMERCY, Elisabetta CARPITELLI (UMR 7320 – BCL «Bases, Corpus, Langage »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


 Que l’information étudiée soit de nature qualitative ou quantitative ou se situe sur un gradient entre ces deux extrêmes, toute donnée est potentiellement incertaine et ne peut que croître à chaque étape de l’étude, de l’acquisition à la publication, si l’on ne met pas en oeuvre des méthodologies spécifiques visant à mieux la contrôler. Cependant, suivant la nature de la donnée, les méthodologies de contrôle et d’évaluation de l’incertitude diffèrent par le moment où elles sont invoquées. Ainsi, de façon très globale, le passage (progressif) du qualitatif au quantitatif décale vers l’amont le moment fort ou privilégié — mais pas exclusif — où la nécessité (ressentie) d’appréhender l’incertitude intervient. Cela signifie que l’on va passer progressivement d’une évaluation de l’incertitude lors de la recherche d’une contradiction sur les résultats d’une étude à l’évaluation de l’incertitude des données, en passant par l’évaluation de l’incertitude dans les processus et les méthodologies traitant l’information. Toutes les disciplines présentes à BCL (de l’énonciation à la psychologie cognitive en passant par la dialectologie et la logométrie) évaluent donc l’incertitude tout au long du processus de compréhension, que cela soit de façon implicite ou formelle, bien que le moment privilégié de la critique, de la contradiction entre spécialistes, puisse varier selon le domaine disciplinaire.

En linguistique, les données initiales (textuelles ou orales) sont posées comme « vraies » quand bien même elles peuvent recevoir d’office l’étiquette de « douteuse » (erreur de langage, pollution par la norme du français en dialectologie) ; elles sont enregistrées sur des supports différents selon leurs natures afin de pouvoir revisiter leurs interprétation. Comment supposer — chez les dialectologues par exemple — qu’un locuteur aurait dû utiliser une certaine forme à l’oral plutôt qu’une autre ou qu’une deuxième version d’un ouvrage d’auteur — pour les spécialistes de l’énonciation — est meilleure que la première. En psychologie cognitive, si la conservation des données est aussi nécessaire pour permettre une révision, des données peuvent être éliminées si elles sont jugées suspectes. En linguistique, c’est aux premières phases de l’interprétation que commence le processus d’évaluation de l’incertitude. Dans le cas d’une approche énonciative, par exemple, il s’agit surtout d’admettre qu’il n’existe pas un texte mais plusieurs formes d’un même texte. Celui‐ci est alors étudié en comparant ses différentes versions et en constituant un corpus de référence, nécessairement arbitraire : le chercheur ne dispose que de son intuition pour choisir quels seraient les éléments pertinents que l’on pourrait opposer pour faire émerger les faits recherchés. L’arbitraire dans la constitution d’un corpus se retrouve aussi en logométrie, bien que sans doute un peu amoindri par la possibilité de prendre en compte un grand nombre de textes de référence grâce à l’automatisation des traitements d’extraction des données. Bien que la comparaison d’attestations dialectales proches du point de vue spatial aussi bien que formel et leur étude fondée sur les règles de l’évolution phonologique ne puissent amener à l’exclusion d’une « intruse », la validité et la représentativité de cette dernière est au moins modérée par ces démarches.

Dans le cadre de la psychologie cognitive, si bien sûr les données s’interprètent dans la cadre d’une théorie, le principe essentiel est « pas de sur‐interprétation ». Les données forgent la théorie bien qu’il reste nécessairement du flou sur les méthodes, statistique et expérimentale et dans les interprétations suivant l’approche théorique retenue. Dans l’approche énonciative, les résultats d’une analyse sont le lieu privilégié pour l’évaluation de l’incertitude, par le biais de la mise en contradiction. Dans le cadre de la psychologie cognitive et peut‐être davantage dans le cadre des neuro‐sciences, une fois les données validées et leurs interprétations effectuées, le résultat d’une analyse devient directement utilisable.

Bibliographie


Linguistique :

– Mathieu‐Colas M. (2008), « De l’incertitude en linguistique : le cas des variantes », in Gaston Gross et Klaus U. Schulz (éd.), Linguistics, Computer Science and Language Processing. Festschrift for Franz Guenthner on the Occasion of his 60th Birthday, College Publications, London: 203‐217

– Mellet S. (éd.) (2002), Corpus et recherches linguistiques, Corpus n. 1 (numéro entier de la revue Corpus)

– Turchetta B. (2000), La ricerca sul campo in linguistica, Roma, Carocci.

Psychologie :

– Lecoutre Bruno. Training students and researchers in Bayesian methods for experimental data analysis. In:Journal of Data Science, april 2006, Vol 4, N°2. pp.147‐168

– Wilkinson Leland and the Task Force on Statistical Inference. APA Board of Scientific Affairs.

– Statistical Methods in Psychology Journals : Guidelines and Explanations. In: American Psychologist, January 1999, N°54, pp. 594‐604

Logométrie :

– Lafon Pierre. Analyse lexicométrique et recherche des cooccurrences. In: Mots, octobre 1981, N°3. pp. 95‐148.

– Lafon Pierre. Sur la variabilité de la fréquence des formes dans un corpus. In: Mots, octobre 1980, N°1. pp. 127‐165.

Énonciation :

– Benveniste Emile. L’appareil formel de l’énonciation. In: Langages, 5e année, n° 17. . L’énonciation. pp. 12‐18.

Share Button

Faire Science avec l’Incertitude – 19 juin 2013

Première table ronde intitulée « L’incertitude : regards pluridisciplinaires« , campus universitaire St Jean d’Angély 2, salle 3B48. Inscription obligatoire.
Organisateurs : MSHS Sud-Est, CEPAM, GdR MoDyS et UMR ESPACE, avec le soutien de l’Université Nice Sophia Antipolis.

Télécharger le programmePROGRAMME détaillé


09:00 Accueil des participants


09:15 Frédérique BERTONCELLO (UMR 7264 – CEPAM « Cultures et Environnements : Préhistoire, Antiquité, Moyen Âge »). Introduction


Picto_Doc209:30 Richard ARENA, Christian LONGHI (UMR 7321 – GREDEG  « Groupe de Recherche en Droit, Économie et Gestion »).
Le poids de l’incertitude en économie : aspects théoriques et empiriques.


10:10 Arnaud BARTOLOMEI (EA 1193 – CMMC «Centre de la Méditerranée Moderne et Contemporaine »).
La notion d’incertitude dans les sciences historiques.


10:50 Pause


Picto_Doc211:10 Frédérique BERTONCELLO (UMR 7264-CEPAM « Cultures et Environnements : Préhistoire, Antiquité, Moyen Âge »).
L’incertitude en archéologie.


Picto_Doc211:50 Giovanni FUSCO (UMR 7300 – ESPACE « Étude des Structures, des Processus d’Adaptation et des Changements de l’Espace ».
L’incertitude dans les sciences géographiques : spécificités, schémas d’appréhension.


12:30 Repas


Picto_Doc214:00 : Laurent DUMERCY, Elisabetta CARPITELLI (UMR 7320 – BCL «Bases, Corpus, Langage »).
Évaluation de l’incertitude : du qualitatif au quantitatif. Une réflexion des linguistes et des psychologues.


14:40 Baptiste MORIZOT (EA 4318 – CRHI « Centre de Recherches en Histoire des Idées » ; UMR 7304 – CEPERC « Épistémologie et Ergologie Comparatives »).
Épistémologie de l’incertitude : raisonnement expérimental, raisonnement herméneutique, méthode indiciaire.


15:10 Pause


Picto_Doc215:30 Pierre LIVET (UMR 7304 – CEPERC « Épistémologie et Ergologie Comparatives »).
Introduction à la discussion générale et conclusion de la rencontre


Share Button

Conférence-débat E. Brondizio – 30 mai 2013

Jeudi 30 mai, le professeur d’anthropologie Eduardo Brondizio (Indiana University – USA) sera l’invité du GREDEG, dans le cadre d’un séminaire du laboratoire. Il sera suivi d’une conférence-débat co-organisée et soutenue par la MSHS :

  • Séminaire méthodologique : ‘Perspectives interdisciplinaires pour l’étude des interactions population-environnement : défis historiques et actuels’ – MSHS Sud-Est – Salle 129, 1er Etage (10h-12h)
  • Conférence-débat organisée par le GREDEG et la MSHS Sud-Est : ‘Complexité socio-écologique et représentation. La théorie sociale à l’épreuve de la transformation amazonienne contemporaine’ – MSHS Sud-Est – Amphi Salle Plate 031 (14h-16h)
    Programme à télécharger : 30 mai 2013 Brondizio

Pour en savoir plus sur le conférencier : Indiana University/newsinfo E.Brondizio

Share Button

Conférence « Hunter-Gatherer Mobility: Concepts and Measures » (R.L. Kelly) – 29 mai 2013

A l’initiative du CEPAM, la MSHS Sud-Est accueille le Professeur Robert Laurens KELLY (Department of Anthropology/University of Wyoming/Director of the Frison Institute) à 14h, amphi 6 (SJA2).
Thème« Hunter-Gatherer Mobility: Concepts and Measures »

Programme et contact

Frison Institute

Résumé :


Mobility is a crucial element of hunter-gatherers’ adaptations to their environments. This seminar considers the variables that condition hunter-gatherer mobility, and why some hunter-gatherers become sedentary. It briefly considers the effect of a reduction in mobility on subsistence, technology, and political organization. Finally, it examines how we can “measure” mobility from lithic assemblages looking especially at the difficulty of separating patterns in assemblages produced by mobility from patterns produced by trade.

Les recherches de Robert L. Kelly s’intéressent essentiellement aux chasseurs-collecteurs, à la technologie lithique et à l’apport de la Behavorial Ecology. Il est professeur à l’Université du Wyoming depuis 1997 et dirige le Frison Institute of Archaeology and Anthropology. Il est l’auteur de plus de 100 articles et livres dont deux des ouvrages universitaires d’Anthropologie les plus utilisés en Amérique du Nord : Archaeology et Archaeology : Down to Earth (avec D. H. Thomas). Son dernier ouvrage, The Lifeways of Hunter-Gatherers, est une nouvelle édition de The Foraging Spectrum, ouvrage dédié à l’étude des sociétés de chasseurs-collecteurs. Ces 40 dernières années, il a mené différents projets à travers l’Ouest des Etats-Unis et a conduit des recherches ethnoarchéologiques à Madagascar. Il fouille actuellement des abris sous roche dans le Bassin de Bighorn dans le Wyoming et mène un large projet à Glacier National Park dans le Montana.

Share Button

Conférence « Les réseaux et les processus qui les font vivre : un mode d’existence virtuel ? » – 27 mai 2013

A l’initiative de son axe de recherche 2 « TIC, usages et communautés », la MSHS Sud-Est est heureuse d’accueillir dans le cadre de son cycle de conférences 2013, le Professeur Pierre LIVET (Université de Provence – CEPERC), lundi 27 mai, à 14h.
Lieu: campus universitaire SJA3 – bâtiment recherche -salle 129
Thème : « les réseaux et les processus qui les font vivre : un mode d’existence virtuel ? ».
A télécharger (pdf) : Texte de présentation du séminaire
Pour en savoir plus sur le conférencier : Université de Provence – CEPERC

Share Button

Séminaire « usages des dispositifs sociotechniques numériques » – 17 mai 2013

Journée d’étude sur les dispositifs sociotechniques d’information et de communication (DISTIC) co-organisée par l’axe de recherche 2 de la MSHS Sud-Est (« TIC, Usages et Communautés ») à la MSHS Sud-Est, de 9h30 à 17h (amphi 031 – bâtiment de l’Horloge – campus St Jean d’Angély 3). Accès libre sur inscription au 04 93 37 54 45 (Laboratoire I3M) :
Programme à télécharger

Problématique :


Les dispositifs sociotechniques d’information et de communication (DISTIC) ne cessent de s’insérer davantage dans notre quotidien. Qu’ils soient liés à l’irruption des médias sociaux, aux environnements immersifs, aux terminaux mobiles, à l’informatique ubiquitaire etc. les objets numériques affectent nos manières de vivre ensemble, de développer une intelligence collective, nos modalités d’échange et de régulation au sein de « nouvelles cultures numériques ». Pourtant derrière cette multiplicité d’innovations, les usages s’insèrent dans des dynamiques sociales inscrites dans la longue durée : industrialisation des activités humaines, rapport ontologique de l’homme aux objets techniques, individualisation des relations, mutation des identités professionnelles et sociales, reconfiguration des cultures etc. Ces dynamiques sont elles-­‐ mêmes à envisager en prenant en compte les normes et imaginaires sociaux, économiques, ergonomiques, et les pratiques accompagnant les DISTIC (dimension performative des figures d’usager, facilitation de l’appropriation de certains dispositifs ou panique morale entourant d’autres). Ajoutons l’importance des formes d’activité, de résistance, de détournements des usagers : déconnexion, braconnage, participation des usagers (en collectifs, réseaux, communautés etc.) à l’évolution de dispositifs numériques, rôle des significations d’usage dans l’acceptation d’une innovation. Les sciences humaines paraissent particulièrement bien armées pour aborder ces problématiques, elles ont aussi beaucoup à apprendre d’un dialogue interdisciplinaire mêlant sociologie, droit, économie, ergonomie, etc. L’ambition générale de cette journée de séminaire est de participer au renouvellement des problématiques en sociologie des usages, en poursuivant l’effort de recherche sur le concept de DISTIC dans ses dimensions sociotechniques, dans la perspective d’accompagnement des processus d’innovation.

 

Share Button

Conférence Shlomo Sand – 5 avril 2013

shlomo sandDans le cadre de l’axe de recherche 3 l’Europe et ses ‘Autres’, Shlomo SAND, Professeur d’histoire contemporaine à l’Université de Tel-Aviv, est invité à faire une conférence intitulée : « nation, peuple et ethnie : l’invention du peuple juif ».

Rendez-vous dans les locaux de la MSHS, campus St Jean-d’Angély , le 5 avril, à 14h.

Share Button

Séminaire interne : « Objets, Corps, Dieux. Ethnographie cognitive d’une dynamique ontologique dans un culte Afro-Brésilien » – 25 mars 2013

amassiDans le cadre de l’axe de recherche 2 « TIC, usages et communautés », Arnaud HALLOY (LAPCOS) présentera ses travaux sur « Objets, Corps, Dieux. Ethnographie cognitive d’une dynamique ontologique dans un culte Afro-Brésilien », lundi 25 mars à 10h, dans les locaux de la MSHS Sud-Est.

Texte de présentation de l’auteur :
objects-bodies-and-gods (format pdf)

Share Button

Séminaire « Biolinguistics » – 18 mars 2013

Dans le cadre de l’axe de recherche 1 « cognition et coopération », un séminaire sur la biolinguistique est organisé, lundi 18 mars 2013, à 14h, dans les locaux de la MSHS Sud-Est.

Chercheur invité : Kleanthes K.GROHMANN (University of Cyprus & Cyprus Acquisition Team).

Téléchargez (format pdf) toutes les informations utiles sur ce séminaire et la biolinguistique : résumé de la conférence & « The Biolinguistics Manifesto » Résumé de l’ouvrage grohmann

Share Button

Conférence « L’Europe et ses autres : juifs, grecs et arméniens dans le commerce méditerranéen » – 11 février 2013

Conférence du 11 février 2013 à 14h00

Intervenant : Ina Baghdiantz McCabe
Salle 031 rez-de-chaussée bâtiment recherche – Pôle Universitaire St Jean d’Angély 3 – face tramway « St Jean d’Angély Université », Nice

Ina Baghdiantz McCabe est Professeur d’histoire à l’Université de Tufts à Boston et auteur de nombreux ouvrages consacrés aux échanges culturels et économiques en Eurasie.

Résumé :


Dans le cadre de l’axe de recherche de la MSHS de Nice intitulé « L’Europe et ses autres », la conférence du 11 février est consacrée au rôle joué par les diasporas marchandes en Europe au dix-septième et dix-huitième siècle. Les diasporas marchandes juives et arméniennes ont eu une importance économique majeure pour plusieurs ports méditerranéens, dont Marseille, Livourne et Venise. Mais elles ont des implications culturelles également au niveau de la culture matérielle: la diffusion de plusieurs produits en Europe comme la garance, le café et le chocolat sont des exemples significatifs des échanges culturels et de leur pouvoir de transformation dans cette période cosmopolite.

Share Button
1 11 12 13