L’incertitude dans les sciences géographiques : spécificités, schémas d’appréhension

Giovanni FUSCO (UMR 7300 – ESPACE « Etude des Structures, des Processus d’Adaptation et des Changements de l’Espace »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


Au cours des vingt dernières années, le concept d’incertitude, qui historiquement avait des définitions précises (quoique différentes) dans la théorie économique ou dans la théorie des erreurs, a fécondé la réflexion dans d’autres champs disciplinaires. En Géographie, le concept d’incertitude est un chapeau recouvrant différents aspects liés à une connaissance non certaine, floue ou même à un manque de connaissance sur les objets d’étude. De multiples pistes de recherche participent ainsi à la problématique de l’incertitude dans notre discipline : l’imprécision et l’incomplétude des données et des connaissances, l’indétermination des objets et des processus spatiaux, l’impossibilité de connaître de l’état (présent ou passé) d’un système spatial et l’imprédictibilité de son état futur, les problèmes liés au traitement ou à la représentation d’informations et de connaissances spatiales incertaines, la subjectivité inhérente à toute question géographique, etc.. Au lieu d’être perçue uniquement en terme négatif, en tant que limite à la connaissance géographique, l’incertitude est désormais de plus en plus intégrée par une partie croissante de géographes (Couclelis, 2003) comme étant une composante essentielle des connaissances produites. Jadis « cachée sous le tapis » ou omise dans le discours géographique, l’incertitude devient alors un point incontournable dans la démarche de la recherche géographique, théorique ou appliquée.

Les géographes de l’équipe niçoise des Dynamiques Territoriales de l’UMR ESPACE ont souhaité faire le point sur les spécificités des questions d’incertitude qui émergent en sciences géographique, en accordant une attention particulière aux recherches menées au sein de l’UMR : l’analyse et la modélisation spatiales. Les principales questions relevées sont les suivantes, étayées par une importante bibliographie scientifique, française et internationale :

Le traitement de l’incertitude dans les données spatiales, nécessaires à toute problématique d’analyse spatiale. Il s’agit ici d’incertitudes liées à la granulométrie de la donnée, aux opérations d’agrégation/désagrégation spatiales et temporelles, à l’échelle choisie, à la pluralité des sources de données, aux contextes de production de la donnée, à l’échantillonnage, etc. Plus précisément, ces questionnements peuvent être rendus plus concrets de la manière suivante : comment réduire l’incertitude des données issues d’une campagne de mesure d’un phénomène spatial comme la pollution de l’air ? Comment l’incertitude des paramètres mesurés affecte‐t‐elle celle de l’indicateur spatial composite qui en découle ? Comment les incertitudes de données spatiales de différentes sources se combinent‐elles ? Comment se modifie l’incertitude des données de chômage (obtenues par échantillonnage) en passant de l’échelle communale à celle départementale ? Ces questions ont été fortement développées dans la littérature géomatique (GIS science) au cours des vingt dernières années.

L’incertitude dans la définition des objets géographiques est plus communément présente dans les débats de la discipline, sans pour autant être particulièrement formalisée. Dans ce cadre, se posent des questions à la base de l’analyse géographique, telles les incertitudes découlant de définitions – ambigües, ou non consensuelles, ou différemment applicables ‐ des concepts de ville, de région, de continent, de lieu, de paysage, etc. Ces incertitudes découlent des hiatus inéliminables entre le continuum de la réalité géographique et la nécessaire discrétisation des catégories logiques d’analyse du géographe. Souvent les incertitudes touchant aux délimitations des objets spatiaux sont à mettre en relation avec les incertitudes des définitions de ces objets.

L’incertitude des schémas d’appréhension des phénomènes spatiaux est inhérente à toute appréhension théorique et conceptuelle en géographie. L’incertitude touche ici non pas aux seules catégories logiques de l’analyse mais aux enchainements entre concepts qui constituent des théories, et à la validité et l’applicabilité de celles‐ci. Avec quelle certitude un schéma « centre‐périphérie » peut‐il expliquer le fonctionnement de l’espace européen ? Avec quelle certitude la théorie mobilisée est‐elle adaptée à l’espace étudié ? Qu’est‐ce qui change quand un modèle général reconnu est adapté aux conditions de lieux spécifiques ?

L’incertitude liée à la complexité des systèmes spatiaux porte sur la connaissance des processus spatio‐temporels, des interactions spatiales, de la reconstitution des états passés des systèmes spatiaux et de la prospection de leurs états futurs (imprédictibilité des systèmes spatiaux). Il s’agit encore une fois de questions qui sont liées à la théorisation de la science géographique, mais qui ont des répercussions sur les connaissances concrètes que le géographe peut produire. Avec quelle certitude pouvons‐nous conclure qu’un processus de gentrification est en cours dans ce quartier en partant des interactions multiples qu’il entretient avec le reste du système urbain ? Avec quelle certitude peut‐on prédire l’aboutissement de ce processus ? De quel degré d’incertitude la prospective de ce phénomène peut‐elle être encadrée ?

L’incertitude dans la modélisation spatiale est une thématique au coeur des démarches de la géographie théorique et quantitative. Sont ici abordées des questions comme l’introduction et la propagation de l’incertitude dans tous les types de modélisation, de la géo‐simulation à des modèles plus descriptifs. Plus particulièrement, les modèles de géosimulation constituent des laboratoires « virtuels » pour le géographe. Ils proposent des répliques (toujours imparfaites) des réalités géographiques, et permettent ainsi une expérimentation impossible dans le réel, et cela par différents types de formalisme automates cellulaires, systèmes multi‐agents, algorithmes génétiques, systèmes d’équations déterministes ou probabilistes. Or ces terrains « virtuels » introduisent des niveaux ultérieurs d’incertitude dans les connaissances produites. Comment se propage, par exemple, l’incertitude de la connaissance des règles de fonctionnement des agents sur celle des résultats d’une simulation ? Comment une connaissance incertaine (les grandes directions d’une diffusion d’une maladie dans l’espace par exemple) peut‐elle être introduite dans de tels modèles ?

L’incertitude dans la représentation de la connaissance spatiale renvoie à la question centrale pour le géographe de la représentation (notamment cartographique) de la connaissance sur l’espace, et même de la communication spatiale. Or, comment représenter une connaissance incertaine ? Quelle est, par exemple, la sémiologie graphique la plus appropriée pour représenter sur une carte (ou sur une carte dynamique) les limites des zones inondables que l’on connait seulement de façon incertaine ? Comment cartographier la probabilité d’appartenance d’un lieu à tel ou tel groupe de lieux ?

L’incertitude et la subjectivité dans les phénomènes spatiaux est une approche géographique de questionnements plus culturels, sociaux, normatifs, à travers notamment la conception et la perception de l’espace. Les préoccupations du géographe rejoignent ici celles d’autres scientifiques travaillant sur des « sujets » perceptifs, cognitifs, culturels et dotées d’intentionnalité. Comment, par exemple, la perception subjective des individus peut se répercuter sur l’incertitude de notre connaissance du phénomène de gêne acoustique dans l’espace urbain ? Comment la perception subjective de l’Europe redéfinit‐elle de manière incertaine l’objet géopolitique « Union Européenne » ? Dans quelle mesure une conception surfacique de l’espace structure la propriété foncière de manière à pérenniser des inégalités sociales ? Comment le géographe intègre‐t‐il des données d’entretien, par essence subjectives ?

L’incertitude dans les processus décisionnels sur l’espace concerne des problématiques proches de l’aménagement du territoire, la géographie pratiquant l’aide à la décision au service des acteurs de l’espace (élus, professionnels de l’aménagement, acteurs économiques, groupes citoyens). Les différentes questions d’incertitude abordées jusqu’à ici prennent une tournure différente dans un contexte d’aide à la décision. Comment, par exemple, prendre en compte l’incertitude de la connaissance du futur du système urbain (appréhendé par un jeu de scénarios) dans la décision de réaliser un équipement ? Comment évaluer l’impact d’une nouvelle carte scolaire dans la ville en sachant que les ménages peuvent éventuellement adopter des stratégies de contournement ?

Bibliographie


– Agumya A., Hunter G., 2002, Responding to the consequences of uncertainty in geographical data, Int. J. Geographical Information Science, vol 16, no. 5, p. 405‐417

– Arnaud A., Davoine P.‐A., 2009, Approche cartographique et géovisualisation pour la représentation de l’incertitude, SAGEO 2009, halshs‐00667166, version 1 ‐ 7 Feb 2012

– Caloz, R., 2005, Réflexions sur les incertitudes et leur propagation an analyse spatiale, Géomatique 15/2005, Territoires Ruraux, p. 303‐319

– Corgne S., Hubert-MoyL., Mercier G., Dezert J., 2004, Application of DSmT for land cover change prediction, in Smarandache F., Dezert J.: Advances and Applications of DSmT for information Fusion. From Evidence to Plausible and Paradoxical Reasoning for Land Cover Change Prediction, American Research Press, Rehoboth, pp.371-382.

– Couclelis H., 2003, The Certainty of Uncertainty: GIS and the Limits of Geographic Knowledge, Transactions in GIS, 7(2), p. 165‐175

– De Ruffray S., 2007, L’imprécision et l’incertitude en géographie. L’apport de la logique floue aux problématiques de régionalisation, Mémoire d’habilitation à diriger des recherches, Université de Paris VII, Volumes 1, 2 et 3, 588 pages.

– De Ruffray S., Hamez G., 2009, « La dimension sociale de la cohésion territoriale. L’exemple de l’accessibilité aux maternités dans la Grande Région », l’Espace Géographique, 2009-4, pp. 328-344

– Duckham M., 2002, Uncertainty and geographic information: computational and critical convergence, research paper, Department of Computer Science, University of Keele, Staffordshire, UK

– Duckham M., Mason K., Stell J., Worboys M., 2001, A Formal Approach to Imperfection in Geographic Information, Computer, Environment and Urban Systems, vol 25, p. 80‐103

– Harrower M., 2003, Representing Uncertainty: Does it Help People Make Better Decisions?, research paper, Department of Geography, University of Wisconsin‐Madison Plewe B., 2002, The Nature of Uncertainty in Historical Geographic Information, Transactions in GIS, 6(4), p. 431‐456

– Prade H., Jeansoulin R., Papini O., Schockaert S. (Eds.), 2010, Methods for Handling Imperfect Spatial Information, Berlin, Springer

Share Button

L’incertitude en archéologie

Frédérique BERTONCELLO (UMR 7264-CEPAM « Cultures et Environnements : Préhistoire, Antiquité, Moyen Âge »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


« L’archéologie ayant l’objectif de reconstituer la totalité des composantes du système d’une société du passé, possède l’étrange propriété de regrouper quasiment toutes les disciplines scientifiques et de les appliquer sur des données partielles, biaisées et peu représentatives et sur des processus parfois non étudiables ». Cette phrase, tirée du récent Manuel d’Archéologie de F. Djindjian (2011), résume de manière très juste les enjeux de la recherche archéologique, au sein desquels l’incertitude est omniprésente. L’incertitude est en effet inhérente, consubstantielle, aux données mobilisées par l’archéologie. Elle revêt plusieurs formes et se manifeste à différents niveaux dans la production de connaissances. Pour la première table ronde du projet « Faire Sciences avec l’incertitude », nous ferons un bilan des enjeux spécifiques de l’incertitude en archéologie en proposant une classification des types d’incertitude qui affectent les données mobilisées et les processus de connaissance dans cette discipline.

1. L’incertitude des données
Les données mobilisables par l’archéologue pour restituer le fonctionnement des sociétés anciennes ne sont qu’un reflet partiel du fonctionnement de ces sociétés. La population (au sens statistique) analysée n’est donc qu’un échantillon de la population initiale (Gallay 1986), la difficulté résidant dans l’impossibilité d’évaluer la représentativité de l’échantillon analysé.

Des données lacunaires

Les vestiges archéologiques disponibles pour l’étude ne représentent qu’une partie seulement des activités humaines passées, celles qui ont laissé des traces suffisamment durables pour nous parvenir. Les corpus disponibles pour l’étude sont en outre lacunaires dans la mesure où un ensemble de processus taphonomiques – facteurs post‐dépositionnels d’origine naturelle ou anthropique – interfèrent sur la conservation des vestiges archéologiques après leur dépôt. À cela s’ajoutent les biais liés à l’intensité variable des recherches et aux stratégies d’échantillonnage mises en œuvre.

Des données ambigües

L’interprétation de la signification d’un objet archéologique n’est pas univoque mais peut donner lieu à plusieurs interprétations concurrentes (ambigüité entre la forme et la fonction). Les explications proposées par l’archéologue, depuis la fonction d’un objet jusqu’au fonctionnement d’une société, sont donc toujours du domaine du plausible, non du certain. Le degré d’incertitude des interprétations proposées va croissant lorsque l’on passe du domaine technologique au domaine économique et social et culmine dans la sphère religieuse et symbolique.

Des données imprécises

L’imprécision peut être liée à la mesure. En archéologie elle affecte principalement la localisation des objets étudiés (au sens large, depuis l’artefact jusqu’au site en passant par l’édifice et le squelette), dans le temps (datations archéométriques basées sur une mesure du taux de radiocarbone résiduel par exemple) et dans l’espace (précision de la localisation autorisée par les différentes techniques de géolocalisation : repérage manuel sur une carte, boussole, GPS, tachéomètre, Lidar etc.). L’imprécision peut aussi affecter la caractérisation des objets quand cela implique la mesure de similitudes/dissemblances par rapport à une population de référence (par exemple pour l’estimation de l’âge du défunt à partir de restes osseux).
L’imprécision peut également provenir du caractère vague, mal défini des catégories utilisées pour caractériser, dater, localiser un objet (par exemple des datations par phases chrono‐culturelles du type « gallo‐romain », ou la polysémie qui caractérise la notion de « site archéologique »).

Des données hétérogènes, sources d’incertitude

Le recours, usuel en archéologie, à des données de nature diverses issues de sources variées (archéologiques, textuelles, cartographiques, environnementales etc.) ajoute de l’incertitude quand il s’agit de les confronter, dans la mesure où chaque type de source présente des résolutions spatiales et chronologiques différentes et des niveaux de précision variés.

Des séries discontinues

Le niveau de renseignement/d’information disponible sur les différents objets d’un même corpus est rarement homogène. Cela nécessite, pour faire des comparaisons, de choisir le seuil à partir duquel un objet est considéré comme suffisamment renseigné pour être comparable aux autres, ce qui implique de définir le plus petit dénominateur commun afin de transformer un corpus hétérogène en un corpus homogène au niveau d’analyse retenu (relation entre niveau d’incertitude et niveau d’analyse). Cette généralisation entraîne généralement une perte d’information et donc une diminution de la précision.

2. L’incertitude des processus
La méconnaissance des processus de fonctionnement des systèmes/phénomènes étudiés.

En raison des filtres successifs (cf. supra) existant entre les sociétés étudiées (l’objectif de connaissance) et les données mobilisables (les moyens de la connaissance), une part plus ou moins importante du fonctionnement des phénomènes ou systèmes étudiés échappe à la connaissance et il n’est pas certain que les processus supposés à l’oeuvre dans la transformation de ces systèmes jouent effectivement le rôle qu’on leur prête. Cela est d’autant plus crucial en archéologie qu’il n’y a pas de vérification possible de la réalisation future des scénarios envisagés (approche rétrospective ≠ prospective).

L’incertitude liée au raisonnement scientifique (processus d’analyse)

Le passage de la découverte d’un objet archéologique à son interprétation en termes de fonctionnement d’une société implique une succession d’inférences (par exemple passer de la découverte de charbons de bois à la restitution de la gestion des ressources ligneuses par une communauté), dans desquelles interviennent non seulement les connaissances et l’expertise de l’archéologue, mais également sa subjectivité, ses références culturelles et idéologiques, son fonctionnement cognitif etc.

Les réponses apportées à cette incertitude irréductible des données archéologiques ont varié et alimenté différents courants théoriques, depuis les approches prônant la constitution de très vastes corpus de données censés réduire l’incertitude par la recherche de l’exhaustivité dans la collecte et l’enregistrement des données (par ex. Demoule et al. 2002), les approches essentiellement descriptives refusant toute généralisation en raison de la complexité et de l’unicité des différentes cultures humaines (« Post‐processual Archaeology », Hodder 1991), jusqu’à celles mettant l’accent sur la nécessité de formalisation de la description – des données et des processus – (Gardin 1979) comme outil de réduction possible de l’incertitude permettant des confrontations et la mise en évidence de régularités, en se fondant notamment sur une approche systémique des sociétés (« Processual Archaeology» ou « New Archaeology », par ex. Clarke 1971, 1973). De développement plus récent, les approches visant à quantifier l’incertitude en recourant aux méthodes statistiques (calcul de probabilités, logique floue, approche bayesienne notamment) ont d’abord été utilisées. dans les domaines reposant sur des mesures (datations archéométriques, estimation de l’âge, etc.), avant d’être mises à contributions plus largement pour estimer la probabilité d’appartenance d’objets archéologiques (au sens large) à des catégories, fonctionnelles, chronologiques, culturelles etc. (par ex. Buck et al. 1996, Ejstrud 2005, Hatzinikolaou 2006). La modélisation apparaît également comme un outil prometteur en archéologie du fait de la non reproductibilité des phénomènes observés (à la différence des sciences expérimentales). Dans une démarche rétrospective, la modélisation permet en effet d’envisager la variété des « possibles », de tester différentes hypothèses, différents scénarios d’évolution du système étudié et d’en estimer ainsi la vraisemblance (van der Leeuw et Kohler 2007).

Bibliographie


– Buck C. E., Cavanagh W. G., Litton C. D., 1996 ‐ Bayesian approach to interpreting archaeological data. Chichester, Wiley.

– Clarke D., 1971 – Analytical Archaeology, London, Methuen and Co.

– Clarke D., 1973 ‐ Archaeology: the loss of innocence. Antiquity, 47, pp. 6–18.

– Demoule J.‐P., Giligny F., Le Hroeff A., Schnapp A., 2002 – Guide des méthodes de l’archéologie, Éditions de la Découverte, Paris, 300 p. ; réédition augmentée 2005 et 2009.

– Demoule J.‐P., 2005. L’archéologie, entre science et passion, collection Découvertes, Gallimard, Paris, 160 p.

– Djindjian F., 2011 – Manuel d’archéologie. Paris, Armand Colin (Collection U – Archéologie).

– Ejstrud B., 2005 ‐ Taphonomic Models: Using Dempster‐Shafer theory to assess the quality of archaeological data andindicative models. In : van Leusen, M., Kamermans, H. (eds.) ‐ Predictive Modelling for Archaeological Heritage Management: a research agenda. Rijksdienst voor het Oudheidkundig Bodemonderzoek, Amersfoort, p. 183‐194.

– Gallay A., 1986 – L’archéologie demain. Paris, Belfond.

– Gardin J.‐C., 1979 ‐ Une archéologie théorique. Paris, Hachette.

– Hatzinikolaou, E.G., 2006 ‐ Quantitative methods in archaeological prediction: from binary to fuzzy logic. In : N.W. Mehrer ‐ K.L. Wescott (eds.) ‐ Gis and Archaeological Site Location Modeling. CRC Press, Boca Raton, p. 437‐446.

– Hodder I., 1991 ‐ Postprocessual Archaeology and the Current Debate. In : Processual and Post‐Processual Archaeologies: Multiple Ways of Knowing the Past, Edited by R. Preucel, pp. 30–41. CAI Southern Illinois University at Carbondale, Occasional Paper No. 10.

– Testard A., 2012 – Avant l’Histoire. L’évolution des sociétés de Lascaux à Carnac. Paris, Gallimard.

– Van der Leeuw S. E., Kohler T., eds., 2007 ‐ The Model‐Based Archaeology of Socio‐Natural Systems. School of Advanced Research, Santa Fe, NM.

Share Button

La notion d’incertitude dans les sciences historiques

Arnaud BARTOLOMEI (EA 1193 – CMMC «Centre de la Méditerranée Moderne et Contemporaine »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


La notion d’incertitude peut être abordée de deux façons par l’historien : sous un angle épistémologique, d’abord, ce qui l’amène à s’interroger sur la valeur de la connaissance historique et le plus ou moins grand degré de « certitude historique » auquel il peut espérer parvenir en utilisant les sources auxquelles il a accès ; comme un objet scientifique, ensuite, lorsque la perception de l’incertitude dans les sociétés passées devient l’objet même de sa recherche. Les propositions de réflexion formulées par les historiens membres du CMMC, dans le cadre du projet de la MSH‐Sud Est, s’inscrivent dans ces deux perspectives que la présente contribution entend donc aborder successivement.

D’un point de vue épistémologique, l’incertitude occupe une position centrale dans la réflexion que l’historien nourrit sur sa propre pratique scientifique et sur sa discipline. Deux questions peuvent plus directement résumer la teneur de cette réflexion : dans quelle mesure est‐il certain qu’un fait historique s’est produit ? Dans quelle mesure est‐il certain qu’un fait historique devait se produire ? La première question renvoie à la construction de la vérité historique et à la scientificité même de la discipline. Depuis l’école dite « méthodique » de la fin du XIXe siècle, l’histoire prétend à un certain niveau de scientificité : la critique des sources et le respect d’un protocole scientifique rigoureux doivent en effet permettre à l’historien d’éviter les erreurs et, donc, de se livrer à une reconstitution fidèle et certaine des faits passés. Cette illusion scientiste, entretenue un temps par l’histoire sérielle chère à l’école des Annales, qui avait élargi la conception du phénomène historique en y incluant les faits économiques, démographiques, sociologiques et culturels, n’est cependant plus partagée, au sein de la communauté scientifique, depuis les remises en cause fondamentales du linguistic turn et de la microstoria : les sources sont de moins en moins perçues comme des indices ou des traces, permettant de reconstituer de façon certaine la réalité historique et, de plus en plus, comme des représentations discursives et orientées d’un réel à jamais
insaisissable. Dès lors, l’historien n’est plus certain que les « choses se sont passées ainsi » mais plutôt que les « choses sont exprimées ainsi dans les sources ». Les égodocuments (journaux intimes et autres écritures du for privé) qu’étudie Pierre‐Yves Beaurepaire constituent une sorte d’exemple paradigmatique du désenchantement qu’ont éprouvé les historiens vis‐à‐vis de leurs sources au cours des dernières décennies et des nouvelles orientations qu’ont suivies, en conséquence, les recherches historiques, puisque, comme il l’écrit, « la certitude a rapidement cédé la place à l’incertitude, lorsque les historiens en se familiarisant avec l’écriture du for privé ont mis en évidence les stratégies d’écriture, de scénarisation ou d’évitement des scripteurs ».

La reconstitution et la description du passé ne constituent cependant qu’une part restreinte du travail de l’historien qui est aussi, et peut‐être avant tout, une démarche d’explication et de compréhension du passé, à savoir de reconstitution des « chaînes causales » qui conduisent à l’occurrence d’un évènement ou d’un fait historique. En la matière, « le tournant critique » des années 1980 a également été révolutionnaire puisqu’il a mis à mal les implicites structuralistes et déterministes sur lesquels reposaient, à l’époque des Annales, les schémas explicatifs des historiens. A l’ère des certitudes, où « l’on s’imaginait que l’économique secrétait le social comme le foie sécrète la bile » (Jacques Dupâquier, 1993) et où les phénomènes historiques apparaissaient donc largement déterminés par leur environnement géographique, économique et culturel, succède, là aussi, une ère d’incertitudes, qui, en plaçant la focale sur la singularité des trajectoires individuelles et l’agency des acteurs, tend à remettre en cause les « grands discours » qui structuraient notre connaissance du passé.

L’opposition entre la « certitude » de la série quantitative et l’incertitude née du « tournant critique » ne constitue cependant pas nécessairement une impasse pour la recherche historique contemporaine qui peut aussi se réinventer en étant attentive aussi bien « à la norme qu’à l’écart à la norme, … à la trajectoire probable et à [ses] inflexions réelles » (P.‐Y. Beaurepaire, 2003) – et qui dispose grâce à l’informatique des instruments nécessaires pour y parvenir.

En tant qu’objet historique, c’est probablement dans le champ de l’histoire économique et, plus précisément, de l’histoire de la décision économique, que la notion d’incertitude a le plus retenue l’attention des historiens au cours des dernières décennies. Cette notion occupe en effet une position centrale parmi les paradigmes de l’économie dite néo‐institutionnaliste qui a eu une très grande influence, à travers les nombreux commentaires qu’ont suscités les travaux d’Oliver Williamson et de Douglass North, sur les historiens de l’économie. Les travaux développés depuis plusieurs années sur l’histoire des réseaux marchands offrent diverses illustrations de l’intérêt que peut représenter la notion d’incertitude pour appréhender, sous un angle nouveau, les pratiques des acteurs du commerce à distance de l’époque préindustrielle. Dans un monde dominé par la lenteur des communications et la faiblesse des recours légaux, l’incertitude constitue en effet la caractéristique première du commerce à distance, que les acteurs s’efforcent de réduire en collectant des informations sur les cours des marchandises et le crédit de leurs partenaires, en inscrivant leurs activités dans le cadre de réseaux de confiance, au sein desquels la réputation et la recommandation offrent des garanties, ou encore en concourant, par leurs pratiques, à la création d’institutions et de normes informelles permettant de limiter les comportements opportunistes de leurs partenaires et de réguler les échanges marchands. La notion de « coût de transaction » apparaît dès lors comme un instrument permettant de formaliser l’ensemble des coûts, monétarisés ou pas, engagés par un marchand pour sécuriser son accès au marché et réduire l’incertitude inhérente à toute transaction.

A l’intérieur de ce cadre théorique large, Silvia Marzagalli et Arnaud Bartolomei animent au sein du CMMC une réflexion sur la dynamique des réseaux marchands dans l’Europe des XVIIIe et XIXe siècles. Ils ont déjà livré diverses contributions sur la fonction des colonies de marchands étrangers dans la structuration des circuits commerciaux, le rôle de certaines professions du commerce – comme les capitaines de navire ou les voyageurs de commerce – dans l’établissement de relations commerciales nouvelles, les instruments mercantiles utilisés pour sécuriser les transactions et réduire l’incertitude marchande (comme la lettre de change, la presse mercantile ou la correspondance) et le recours aux institutions étatiques dans l’intermédiation marchande. C’est notamment dans cette dernière perspective que s’inscrivent les différents programmes de recherche actuellement en cours au sein du CMMC sur l’étude de la fonction consulaire en Europe et dans le monde méditerranéen aux époques moderne et contemporaine.

Share Button

Le poids de l’incertitude en économie : aspects théoriques et empiriques

Richard ARENA, Christian LONGHI (UMR 7321 – GREDEG « Groupe de Recherche en Droit, Economie et Gestion »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


En économie, la notion d’incertitude joue un rôle essentiel à deux niveaux extrêmement différents. Le premier renvoie à l’élaboration de la théorie économique et relève de l’étude des processus de décision, que ceux-ci aient lieu :

– dans le contexte du choix d’un agent économique isolé qui fait face à ce que l’on appelle les états du monde; il peut connaître ces états (prévision parfaite), ne pas les connaître mais être capable d’associer à ces états une distribution de probabilités (risque) ou ne pas les connaître et ne pas avoir cette capacité (incertitude). On se réfère alors à ce que l’on appelle la théorie de la décision largement sous-tendue parla conception calculatrice et substantive du choix rationnel individuel.

– dans le contexte d’un choix stratégique opéré par un agent économique qui prend également en compte les comportements d’autres agents également concernés par une interaction sociale donnée, à partir d’une anticipation stratégique relative aux choix de ces derniers; la distinction entre risque et incertitude demeure mais elle est largement conditionnée par la nature de la relation entre agents, c’est-à-dire, par les connaissances dont ils disposent et les croyances qu’ils adoptent; on se réfère alors à ce que l’on appelle la théorie des jeux.

– dans le contexte d’une décision qui n’est pas purement dépendante des comportements stratégiques des acteurs mais aussi des formes d’intéraction sociale des agents: confiance, mimétisme, influence, etc. Dans ce cas, les agents économiques sont dits hétérogènes, l’incertitude devient la règle et conditionne les comportements individuels, collectifs et sociaux. On se réfère alors à la théorie des intéractions économiques.

Ces trois contextes relèvent aussi bien de la micro que de la macroéconomie, même si cette dernière suppose la prise en compte du concept d’agent représentatif qui rend encore plus complexe le problème de la signification de l’incertitude en économie.

Plus récemment, de nouvelles approches sont apparues et modifient essentiellement le paysage. Il s’agit :

– De l’économie comportementale qui se développe, se diffuse considérablement et consiste à adopter comme point de départ les comportements observés tels par exemple qu’ils apparaissent sur les marchés et non une axiomatique des choix.

– De l’économie expérimentale qui se concentre dans quelques centres académiques et consiste à adopter comme point de départ les comportements économiques observés en laboratoire selon des protocoles prédéfinis supposant la prise en compte d’une axiomatique des choix.

Dans ces deux contextes, la notion d’incertitude ne se modifie pas mais elle joue un rôle grandissant couplé à celui d’apprentissage. Cette importance conférée à l’incertitude s’étend aussi aux cas où la notion de rationalité collective ou sociale se substitue à celle de rationalité individuelle.

Dans notre contribution, il s’agira en premier lieu de voir en quoi ces nouvelles approches ont pu modifier mais aussi complexifier la notion d’incertitude en économie.

Un deuxième niveau a trait à l’analyse des données, de l’incertitude ou de la qualité inhérentes aux données mobilisées, des contraintes qui pèsent sur la disponibilité de données, leur adéquation aux analyses développées, de la pertinence des modélisations et résultats obtenus, indépendamment des seuls problèmes de significativité statistique. Cette dimension liée à l’incertitude est particulièrement pertinente en économie, contrairement à ce que la production continue d’indices par les instituts pourrait laisser croire. Elle relève principalement de ce que l’on appelle l’économie appliquée.

L’économie a toujours été dans sa partie empirique essentiellement consacrée à l’observation des « économies réelles », à l’explicitation de leur fonctionnement, de leurs performances (croissance, exportation…), à l’établissement de prédictions sur leurs performances futures, à la vérification empirique des prédictions théoriques. Récemment deux courants nouveaux se sont développés, qui visent à réduire l’incertitude selon des modalités parfaitement opposées. Le premier est fondé sur la production de données d’expérience. Il s’agit de créer des environnements en laboratoire permettant d’isoler des éléments de décisions individuelles, visant essentiellement l’évaluation des modèles théoriques existants. Le second n’est à l’opposé pas préoccupé par l’analyse théorique ou la compréhension des phénomènes qu’il traite. Il s’agit de les prédire en utilisant toutes les données disponibles possibles, selon une démarche purement statistique, le meilleur modèle est sélectionné selon la pertinence de ses prédictions, quelles que soient ses variables explicatives. Ces démarches en termes de « data mining » ou de « nowcasting » se développent avec la multiplication des données disponibles.

Mais l’essentiel de l’analyse empirique reste centrée sur la représentation et l’observation des économies réelles. Il est bien évident que l’économie n’est jamais directement observable ni son fonctionnement connu ; tous les faits économiques sont construits, comme le sont leurs relations. L’observation des « économies réelles » n’est pas neutre, elle vise à produire des données pertinentes pour les théories qui sous-tendent leur représentation, et pour les politiques économiques qu’elles définissent. On présentera les caractéristiques essentielles des enquêtes présidant à la construction des appareils statistiques en économie, et les enjeux et limites liés à la production des données, au traitement des données, et à la modélisation. On illustrera notre propos avec l’analyse des territoires et de l’innovation en économie. La représentation économique et le rôle des territoires dans l’explication des performances économiques a considérablement évolué avec l’émergence de problématiques théoriques nouvelles, déplaçant les questions pertinentes, invalidant les connaissances de leur dynamique économique ou la vraisemblance des résultats acquis. Le renouvellement théorique implique le renouvellement des données nécessaires à l’observation de l’économie, à la mesure comme à la compréhension de son activité.

Bibliographie


– Arena R.and A. Festré (eds),Knowledge, Beliefs, and Economics, Edward Elgar: Cheltenham,U.K., 2007.

– Bańbura, M., Giannone, G., Reichlin L.,Nowcasting, Working Paper Series 1275, December2010.

– Eber, N., Willinger, M., 2012,L’économie expérimentale, Repères, 126p.

– Choi, H.,Varian, H., 2009,Predicting the Present with Google Trends, mimeo, April.

– Krugman, P., 1991, Geography and Trade, MIT Press.

– Morgenstern, O., 1972, Précision et incertitude des données économiques, Paris, Dunod.

– Moureau, N.,Rivaud-Danset, D., 2004, L’incertitudedans les théories économiques. Éditions La Découverte.

– OECD, 2005, Oslo Manual, Eurostat,OECD, Paris.

– Reinhart C. Rogoff K, 2010, « Growth in a Time of Debt », American Economic Review: Papers & Proceedings 100, May: 573-578.

– Vernon L. Smith, 1991, Papers in Experimental Economics, Cambridge University Pr.


Share Button

Introduction à la discussion générale et conclusion de la rencontre

Pierre LIVET (UMR 7304 – CEPERC « Epistémologie et Ergologie Comparatives »).

1ère Table Ronde «  L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

 

 

Share Button

Epistémologie de l’incertitude : raisonnement expérimental, raisonnement herméneutique, méthode indiciaire

Baptiste MORIZOT (EA 4318 – CRHI « Centre de Recherches en Histoire des Idées » ; UMR 7304 – CEPERC « Epistémologie et Ergologie Comparatives »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


Pour interroger l’incertitude en sciences humaines, il semble intéressant de passer d’abord par l’épistémologie des sciences naturelles incluant les propositions théoriques de Duhem, Popper, Bachelard, Canguilhem, et jusqu’à Bas Van Fraasen ; pour se fonder sur les acquis de cette tradition théorique ancienne et riche, qui fournit un pôle de comparaison nécessaire. L’incertitude y apparaitra dans son sens physique et métrologique (marge d’imprécision sur la valeur de la mesure d’une grandeur physique). Mais dans un second temps, et c’est l’essentiel, il est nécessaire d’adopter une perspective épistémologique spécifique aux sciences humaines, qui ne leur impose pas de l’extérieur les normes de scientificité des sciences expérimentales. Dans les sciences de l’homme, les types de raisonnement, et le régime d’administration de la preuve, ne sont pas et ne doivent pas être identiques à ceux des sciences de la nature. Cela a été montré dans un texte fondateur de Jean-Claude Passeron, Le raisonnement sociologique, Pour un espace non poppérien du raisonnement scientifique, inspiré notamment par Heinrich Rickert et Max Weber et, qui enjoint de penser pour les sciences humaines un « espace non poppérien du raisonnement naturel », où la scientificité d’une proposition n’est pas liée au seul critère de réfutabilité.

Ce qui permet de montrer qu’en sciences humaines, l’incertitude de la mesure se redouble d’une incertitude herméneutique, suivant le terme de Passeron, liée au travail conceptuel qui configure les données empiriques.

Pour comprendre cette spécificité des sciences humaines, qui est apparue très nettement dans l’organisation du cycle de travail sur l’incertitude, il faut revenir au constat de Passeron : les sciences humaines ne possèdent pas de langage protocolarisé. Par exemple, en physique, l’incertitude a des définitions formelles bien précises : en métrologie par exemple, elle désigne la marge d’imprécision sur la valeur de la mesure d’une grandeur physique. Alors qu’en sciences humaines, les échanges sur cette notion ont montré des significations polysémiques, de l’incertitude comportementale en économie, à l’incertitude de datation en archéologie. Cet espace du langage naturel, limité par le raisonnement expérimental et la cohérence des données empiriques, constitue précisément un espace non poppérien du raisonnement scientifique, celui des sciences de l’homme. Les sciences de l’homme ne peuvent se contenter d’un langage formel protocolarisé mais doivent s’exprimer, dans leurs synthèses, dans cette langue naturelle qui est celle du concept.

Qu’entend-on par langage naturel et langage protocolarisé? Par exemple, le concept de travail, en physique, est parfaitement formalisé : protocolarisé. Le travail d’une force est l’énergie fournie par cette force lorsque son point d’application se déplace (l’objet subissant la force se déplace ou se déforme). Il possède une définition mathématique qui l’insère dans un système de calcul cohérent de la dynamique newtonienne. Une force constante qui s’applique sur un objet parcourant un trajet rectiligne fournit un travail W : le Travail est égal au produit de la force F par le déplacement u.

Par contre, en sociologie ou en économie, le travail a des significations plurielles et mouvantes (l’activité rémunérée qui permet la production de biens et services – avec le capital, c’est un facteur de production de l’économie), en droit, le travail est un concept à bords flous, doté d’une polysémie qu’il n’est ni possible ni souhaitable de réduire complètement : doit-on faire l’hypothèse qu’il est nécessaire de disposer de concepts complexes pour approcher des entités complexes ?

Il s’agit de montrer qu’en ce qui concerne le concept d’incertitude, les sciences humaines ont d’autres choix que de se soumettre, suivant la formule de Passeron, au rêve nomologique de la physique, ou de céder à la divagation herméneutique.

Passeron défend une position épistémologique particulière qui articule dans une limitation mutuelle le raisonnement expérimental et le raisonnement herméneutique, à partir de la nécessité du langage naturel : c’est le « raisonnement sociologique » (Passeron propose le raisonnement sociologique comme une constante de toutes les sciences humaines, qu’il qualifie de sciences historiques : il est intéressant de noter que de ce point de vue, des disciplines comme la paléontologie ou la paléoanthropologie, traditionnellement classées dans la biologie, sont plus proches dans leur rapport à l’incertitude de l’archéologie et de l’histoire que de l’anatomie ou la physiologie : données empiriques qui sont des traces lacunaires, avec incertitude de datation et de représentativité, et interprétation/extrapolation nécessaire).

Si l’on fait dialoguer Popper et Passeron, l’on constate que l’application de l’épistémologie des sciences naturelles aux sciences humaines n’est pas pertinente : il existe un espace non poppérien du raisonnement scientifique, celui des sciences de l’homme – qui pose en termes originaux le problème d’une l’incertitude « sémantique ».

Dans un dernier temps, cette incertitude sémantique peut être pensée d’un point de vue méthodologique à partir des thèses de Carlo Ginzburg sur la méthode indiciaire, propre aux sciences humaines, décrite dans Mythes, emblème, traces : morphologie et histoire. Ce texte pointe le type de raisonnement et le style de problèmes qui caractérisent les sciences humaines, présentant l’incertitude, non comme une imperfection, mais comme un aspect essentiel du savoir acquis par les sciences historiques, profondément distinctes par là des sciences nomologiques, qui ne peuvent être exactes que par ce qu’elles peuvent reproduire leurs résultats en laboratoire – où il est si difficile de reproduire une révolution.

Share Button

Evaluation de l’incertitude : du qualitatif au quantitatif. Une réflexion des linguistes et des psychologues

Laurent DUMERCY, Elisabetta CARPITELLI (UMR 7320 – BCL «Bases, Corpus, Langage »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


 Que l’information étudiée soit de nature qualitative ou quantitative ou se situe sur un gradient entre ces deux extrêmes, toute donnée est potentiellement incertaine et ne peut que croître à chaque étape de l’étude, de l’acquisition à la publication, si l’on ne met pas en oeuvre des méthodologies spécifiques visant à mieux la contrôler. Cependant, suivant la nature de la donnée, les méthodologies de contrôle et d’évaluation de l’incertitude diffèrent par le moment où elles sont invoquées. Ainsi, de façon très globale, le passage (progressif) du qualitatif au quantitatif décale vers l’amont le moment fort ou privilégié — mais pas exclusif — où la nécessité (ressentie) d’appréhender l’incertitude intervient. Cela signifie que l’on va passer progressivement d’une évaluation de l’incertitude lors de la recherche d’une contradiction sur les résultats d’une étude à l’évaluation de l’incertitude des données, en passant par l’évaluation de l’incertitude dans les processus et les méthodologies traitant l’information. Toutes les disciplines présentes à BCL (de l’énonciation à la psychologie cognitive en passant par la dialectologie et la logométrie) évaluent donc l’incertitude tout au long du processus de compréhension, que cela soit de façon implicite ou formelle, bien que le moment privilégié de la critique, de la contradiction entre spécialistes, puisse varier selon le domaine disciplinaire.

En linguistique, les données initiales (textuelles ou orales) sont posées comme « vraies » quand bien même elles peuvent recevoir d’office l’étiquette de « douteuse » (erreur de langage, pollution par la norme du français en dialectologie) ; elles sont enregistrées sur des supports différents selon leurs natures afin de pouvoir revisiter leurs interprétation. Comment supposer — chez les dialectologues par exemple — qu’un locuteur aurait dû utiliser une certaine forme à l’oral plutôt qu’une autre ou qu’une deuxième version d’un ouvrage d’auteur — pour les spécialistes de l’énonciation — est meilleure que la première. En psychologie cognitive, si la conservation des données est aussi nécessaire pour permettre une révision, des données peuvent être éliminées si elles sont jugées suspectes. En linguistique, c’est aux premières phases de l’interprétation que commence le processus d’évaluation de l’incertitude. Dans le cas d’une approche énonciative, par exemple, il s’agit surtout d’admettre qu’il n’existe pas un texte mais plusieurs formes d’un même texte. Celui‐ci est alors étudié en comparant ses différentes versions et en constituant un corpus de référence, nécessairement arbitraire : le chercheur ne dispose que de son intuition pour choisir quels seraient les éléments pertinents que l’on pourrait opposer pour faire émerger les faits recherchés. L’arbitraire dans la constitution d’un corpus se retrouve aussi en logométrie, bien que sans doute un peu amoindri par la possibilité de prendre en compte un grand nombre de textes de référence grâce à l’automatisation des traitements d’extraction des données. Bien que la comparaison d’attestations dialectales proches du point de vue spatial aussi bien que formel et leur étude fondée sur les règles de l’évolution phonologique ne puissent amener à l’exclusion d’une « intruse », la validité et la représentativité de cette dernière est au moins modérée par ces démarches.

Dans le cadre de la psychologie cognitive, si bien sûr les données s’interprètent dans la cadre d’une théorie, le principe essentiel est « pas de sur‐interprétation ». Les données forgent la théorie bien qu’il reste nécessairement du flou sur les méthodes, statistique et expérimentale et dans les interprétations suivant l’approche théorique retenue. Dans l’approche énonciative, les résultats d’une analyse sont le lieu privilégié pour l’évaluation de l’incertitude, par le biais de la mise en contradiction. Dans le cadre de la psychologie cognitive et peut‐être davantage dans le cadre des neuro‐sciences, une fois les données validées et leurs interprétations effectuées, le résultat d’une analyse devient directement utilisable.

Bibliographie


Linguistique :

– Mathieu‐Colas M. (2008), « De l’incertitude en linguistique : le cas des variantes », in Gaston Gross et Klaus U. Schulz (éd.), Linguistics, Computer Science and Language Processing. Festschrift for Franz Guenthner on the Occasion of his 60th Birthday, College Publications, London: 203‐217

– Mellet S. (éd.) (2002), Corpus et recherches linguistiques, Corpus n. 1 (numéro entier de la revue Corpus)

– Turchetta B. (2000), La ricerca sul campo in linguistica, Roma, Carocci.

Psychologie :

– Lecoutre Bruno. Training students and researchers in Bayesian methods for experimental data analysis. In:Journal of Data Science, april 2006, Vol 4, N°2. pp.147‐168

– Wilkinson Leland and the Task Force on Statistical Inference. APA Board of Scientific Affairs.

– Statistical Methods in Psychology Journals : Guidelines and Explanations. In: American Psychologist, January 1999, N°54, pp. 594‐604

Logométrie :

– Lafon Pierre. Analyse lexicométrique et recherche des cooccurrences. In: Mots, octobre 1981, N°3. pp. 95‐148.

– Lafon Pierre. Sur la variabilité de la fréquence des formes dans un corpus. In: Mots, octobre 1980, N°1. pp. 127‐165.

Énonciation :

– Benveniste Emile. L’appareil formel de l’énonciation. In: Langages, 5e année, n° 17. . L’énonciation. pp. 12‐18.

Share Button

Faire Science avec l’Incertitude – 19 juin 2013

Première table ronde intitulée « L’incertitude : regards pluridisciplinaires« , campus universitaire St Jean d’Angély 2, salle 3B48. Inscription obligatoire.
Organisateurs : MSHS Sud-Est, CEPAM, GdR MoDyS et UMR ESPACE, avec le soutien de l’Université Nice Sophia Antipolis.

Télécharger le programmePROGRAMME détaillé


09:00 Accueil des participants


09:15 Frédérique BERTONCELLO (UMR 7264 – CEPAM « Cultures et Environnements : Préhistoire, Antiquité, Moyen Âge »). Introduction


Picto_Doc209:30 Richard ARENA, Christian LONGHI (UMR 7321 – GREDEG  « Groupe de Recherche en Droit, Économie et Gestion »).
Le poids de l’incertitude en économie : aspects théoriques et empiriques.


10:10 Arnaud BARTOLOMEI (EA 1193 – CMMC «Centre de la Méditerranée Moderne et Contemporaine »).
La notion d’incertitude dans les sciences historiques.


10:50 Pause


Picto_Doc211:10 Frédérique BERTONCELLO (UMR 7264-CEPAM « Cultures et Environnements : Préhistoire, Antiquité, Moyen Âge »).
L’incertitude en archéologie.


Picto_Doc211:50 Giovanni FUSCO (UMR 7300 – ESPACE « Étude des Structures, des Processus d’Adaptation et des Changements de l’Espace ».
L’incertitude dans les sciences géographiques : spécificités, schémas d’appréhension.


12:30 Repas


Picto_Doc214:00 : Laurent DUMERCY, Elisabetta CARPITELLI (UMR 7320 – BCL «Bases, Corpus, Langage »).
Évaluation de l’incertitude : du qualitatif au quantitatif. Une réflexion des linguistes et des psychologues.


14:40 Baptiste MORIZOT (EA 4318 – CRHI « Centre de Recherches en Histoire des Idées » ; UMR 7304 – CEPERC « Épistémologie et Ergologie Comparatives »).
Épistémologie de l’incertitude : raisonnement expérimental, raisonnement herméneutique, méthode indiciaire.


15:10 Pause


Picto_Doc215:30 Pierre LIVET (UMR 7304 – CEPERC « Épistémologie et Ergologie Comparatives »).
Introduction à la discussion générale et conclusion de la rencontre


Share Button

Conférence-débat E. Brondizio – 30 mai 2013

Jeudi 30 mai, le professeur d’anthropologie Eduardo Brondizio (Indiana University – USA) sera l’invité du GREDEG, dans le cadre d’un séminaire du laboratoire. Il sera suivi d’une conférence-débat co-organisée et soutenue par la MSHS :

  • Séminaire méthodologique : ‘Perspectives interdisciplinaires pour l’étude des interactions population-environnement : défis historiques et actuels’ – MSHS Sud-Est – Salle 129, 1er Etage (10h-12h)
  • Conférence-débat organisée par le GREDEG et la MSHS Sud-Est : ‘Complexité socio-écologique et représentation. La théorie sociale à l’épreuve de la transformation amazonienne contemporaine’ – MSHS Sud-Est – Amphi Salle Plate 031 (14h-16h)
    Programme à télécharger : 30 mai 2013 Brondizio

Pour en savoir plus sur le conférencier : Indiana University/newsinfo E.Brondizio

Share Button

Conférence « Hunter-Gatherer Mobility: Concepts and Measures » (R.L. Kelly) – 29 mai 2013

A l’initiative du CEPAM, la MSHS Sud-Est accueille le Professeur Robert Laurens KELLY (Department of Anthropology/University of Wyoming/Director of the Frison Institute) à 14h, amphi 6 (SJA2).
Thème« Hunter-Gatherer Mobility: Concepts and Measures »

Programme et contact

Frison Institute

Résumé :


Mobility is a crucial element of hunter-gatherers’ adaptations to their environments. This seminar considers the variables that condition hunter-gatherer mobility, and why some hunter-gatherers become sedentary. It briefly considers the effect of a reduction in mobility on subsistence, technology, and political organization. Finally, it examines how we can “measure” mobility from lithic assemblages looking especially at the difficulty of separating patterns in assemblages produced by mobility from patterns produced by trade.

Les recherches de Robert L. Kelly s’intéressent essentiellement aux chasseurs-collecteurs, à la technologie lithique et à l’apport de la Behavorial Ecology. Il est professeur à l’Université du Wyoming depuis 1997 et dirige le Frison Institute of Archaeology and Anthropology. Il est l’auteur de plus de 100 articles et livres dont deux des ouvrages universitaires d’Anthropologie les plus utilisés en Amérique du Nord : Archaeology et Archaeology : Down to Earth (avec D. H. Thomas). Son dernier ouvrage, The Lifeways of Hunter-Gatherers, est une nouvelle édition de The Foraging Spectrum, ouvrage dédié à l’étude des sociétés de chasseurs-collecteurs. Ces 40 dernières années, il a mené différents projets à travers l’Ouest des Etats-Unis et a conduit des recherches ethnoarchéologiques à Madagascar. Il fouille actuellement des abris sous roche dans le Bassin de Bighorn dans le Wyoming et mène un large projet à Glacier National Park dans le Montana.

Share Button
1 2 3 4