Table ronde « Démarches, méthodes et approches de la connaissance incertaine » – 28 novembre 2013

Deuxième table ronde du projet « Faire science avec l’Incertitude » consacrée aux « Démarches, méthodes et approches de la connaissance incertaine ».
Lieu : campus universitaire St Jean d’Angély 3, amphi 031.
Organisateurs : MSHS Sud-Est, CEPAM, GdR MoDyS et UMR ESPACE, avec le soutien de l’Université Nice Sophia Antipolis.

Entrée libre mais inscription obligatoire : mshs@unice.fr

Picto_pdfPRESENTATION et PROGRAMME


08:30 Accueil des participants


09:00 Giovanni FUSCO (UMR ESPACE, Nice). Introduction

Picto_Doc209:10 Henri PRADE (UMR IRIT, Toulouse). «Modèles qualificatifs de l’incertitude en sciences du traitement de l’information »


10:00 1ère séance ‐  Incertitudes et Probabilités


Picto_Doc2Sébastien POINAT (CRHI, ESPE de l’Académie de Nice, Université Nice Sophia Antipolis). « Quel(s) sens donner aux probabilités ? »



Picto_Doc2Giovanni FUSCO (UMR ESPACE, Nice). « Modéliser l’incertitude dans la connaissance des systèmes spatiaux. L’apport des Réseaux Bayésiens »


Discussion


12:00 Repas


13:30 2ème séance ‐ L’incertitude au‐delà des Probabilités.


Picto_Doc2Thomas HUET (CEPAM-CNRS, UMR 7264, Université Nice Sophia Antipolis). « L’apport des analyses multifactorielles dans les déterminations chronologiques incertaines : le cas des gravures du mont Bego »


Picto_Doc2Nicolas POIRIER (UMR TRACES, Toulouse), Johnny DOUVINET, Laure CASANOVA (UMR ESPACE, Avignon). « Représenter l’incertitude dans la restitution graphique des dynamiques spatio‐temporelles »


Discussion

15:30 Pause

15:45 Discussion générale et conclusion de la rencontre avec Henri PRADE (UMR IRIT, Toulouse)
Share Button

Modèles qualificatifs de l’incertitude en sciences du traitement de l’information

Henri PRADE (UMR IRIT, Toulouse)

2ème Table Ronde « Démarches, méthodes et approches de la connaissance incertaine », Nice, 28 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

 

 

Share Button

Représenter l’incertitude dans la restitution graphique des dynamiques spatio‐temporelles

Nicolas POIRIER (GdR 3359 Modys, CNRS UMR 5608 TRACES – Toulouse), Johnny DOUVINET (GdR 3359 Modys, Université d’Avignon, UMR 7300 ESPACE), Laure CASANOVA (Université d’Avignon, UMR 7300 ESPACE)

2ème Table Ronde « Démarches, méthodes et approches de la connaissance incertaine », Nice, 28 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


L’objectif de l’intervention est de présenter des éléments de l’état des lieux, dressé dans le cadre du GdR Modys, pour ce qui concerne la représentation de l’incertitude dans les restitutions graphiques des dynamiques spatio-temporelles.

            Le GdR 3359 Modys (2010-2013), situé au croisement des sciences historiques et de la géographie a pour objet la formalisation et la modélisation de phénomènes localisés dans l’espace et dans le temps. Le programme est structuré selon deux axes : 1) multi-temporalités et longue durée, 2) incertitude et multi-représentations. L’ambition est de contribuer à améliorer la compréhension des transformations des objets spatiaux considérés, selon les disciplines, dans le temps long.

            On s’attachera dans une première partie à donner des exemples de procédés utilisés pour représenter les dynamiques spatio-temporelles. On s’interrogera en particulier sur l’utilisation des cartes et restitutions 3D animées : ne condamnent-elles qu’à animer des successions d’états au détriment de la représentation des dynamiques elles-mêmes ? Les outils proposés par la Time Geography (comme l’aquarium spatio-temporel) permettent une réelle représentation conjointe des dynamiques dans l’espace et le temps. La chrono-chorématique et la modélisation graphique animée contribuent enfin à la définition et la formalisation de réelles sémiologies graphiques pour les processus spatio-temporels.

            Une deuxième partie décrira les différents facteurs d’incertitude pouvant affecter les restitutions graphiques des processus spatio-temporels. On abordera d’abord l’incertitude liée à l’imprécision des mesures et au hasard : elle concerne le pas de temps de mesure des processus et l’incertitude liée aux datations, particulièrement sensible en sciences historiques ;  elle porte également sur la résolution spatiale de localisation et d’emprise des objets étudiés ; elle renvoie enfin à la lacunarité des informations mobilisables, dans le temps et dans l’espace. On abordera ensuite l’incertitude liée au comportement inattendu ou imprévisible des systèmes complexes étudiés, notamment dans le cadre d’études prospectives.

            Une troisième partie interrogera la manière dont sont pris en compte (ou non) ces facteurs d’incertitude en matière de représentation graphique des processus spatio-temporels.  Une telle prise en compte peut prendre la forme d’un changement d’échelle conduisant par exemple à mobiliser des données spatiales imprécises à très petite échelle pour masquer cette imprécision, ou encore à grouper des points temporels incertains dans des classes chronologiques dont l’amplitude sera supérieure au degré d’imprécision. On peut également faire le choix de composer avec l’incertitude, en la niant tout simplement ou en tentant de la quantifier. On verra enfin que la représentation graphique de l’incertitude répond à des règles sémiologiques encore peut formalisées mais largement partagées (épaisseur des traits, niveaux de transparence, etc…).

 

 

Share Button

Quel(s) sens donner aux probabilités ?

Sébastien POINAT (CRHI, ESPE de l’Académie de Nice, Université Nice Sophia Antipolis)

2ème Table Ronde « Démarches, méthodes et approches de la connaissance incertaine », Nice, 28 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


 Les probabilités sont d’abord des outils mathématiques : en général, une fonction de probabilité attribue aux éléments d’un groupe quelconque un nombre compris entre 0 et 1. Mais, au-delà du sens purement mathématique, on peut se demander comment comprendre ces mêmes probabilités lorsqu’on les applique à des objets du monde ou à des événements : au temps qu’il fera demain (ou qu’il faisait il y a 10 000 ans), à la décision que prendra un agent économique, au résultat d’un tirage au sort… Sont-elles simplement la mesure de notre ignorance, comme l’affirme les interprétations subjectivistes des probabilités ? Ou bien faut-il considérer qu’elles représentent un trait caractéristique du monde, comme c’est le cas selon les interprétations objectivistes ? Et si oui, quel trait du monde ?

            Selon les interprétations subjectivistes des probabilités, les probabilités ne décrivent que notre ignorance au sujet des événements auxquels elles sont appliquées. Elles ne sont pas supposées représenter un état du monde, une indétermination intrinsèque, mais seulement l’état de notre connaissance du monde. De telles probabilités mesurent ainsi le degré de fiabilité d’une assertion, d’une hypothèse, ou encore d’une croyance. Elles supposent qu’entre l’ignorance pure et simple et la connaissance pleine et entière existent plusieurs degrés, dont elles fournissent la mesure.

            Selon les interprétations objectivistes, au contraire, les probabilités disent quelque chose du monde, elles traduisent une de ses caractéristiques. L’interprétation fréquentiste affirme ainsi que les probabilités décrivent la fréquence relative d’apparition d’un événement particulier parmi une famille d’événements similaires. Pour calculer une probabilité, il faudrait ainsi reproduire un nombre suffisant de fois une même expérience et calculer la fréquence statistique d’apparition des différents résultats. Dans cette perspective, les probabilités n’ont de sens que pour un ensemble suffisamment grand d’événements ou d’objets, elles n’ont de sens que statistique

            Pour éviter cette difficulté, l’interprétation fréquentiste peut être complétée par la thèse selon laquelle ces fréquences relatives d’apparition traduisent l’existence de potentialités, ou de propensions (comme le disait Popper), dans les choses : des tendances à produire tel ou tel résultat, ou à réaliser tel ou tel événement. La probabilité a alors un sens même lorsqu’on ne considère qu’un événement isolé ou un objet unique.

            Ces différentes interprétations des probabilités ont leurs mérites et leurs défauts respectifs. On peut penser qu’il est inutile de vouloir les classer en général, indépendamment du contexte dans lequel on veut les utiliser. Certains cas sont typiques : si l’on cherche à mesurer la pertinence ou la fiabilité d’une assertion, en général c’est  l’interprétation subjectiviste qui s’impose. Si l’on s’attache à des phénomènes collectifs, pour lesquels on possède des données de nature statistique, l’interprétation statistique est la plus pertinente. Certaines situations intermédiaires peuvent, cependant, poser problème et il n’est pas toujours facile de dire quelle est l’interprétation la plus approprié

 

 

Share Button

Trois champs d’application de la théorie des ensembles flous en Géographie : Connaissance des territoires à risque, appréhension du changement spatio‐temporel, et régionalisation du monde

Jérôme DUTOZIA, Karine EMSELLEM, Christine VOIRON (UMR ESPACE, Nice)

2ème Table Ronde « Démarches, méthodes et approches de la connaissance incertaine », Nice, 28 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


La théorie des ensembles flous, introduite par Zadeh en 1965, suscite chez les géographes un intérêt tout particulier, puisque l’espace géographique est par essence flou, c’est-à-dire avec des limites imprécises, plus ou moins nettes et continues. Par exemple, un espace polarisé par un centre est un espace imprécis, dans la mesure où l’influence de ce centre ne s’exerce pas uniformément sur tout l’espace. On peut alors définir un cœur et des marges d’imprécision plus ou moins larges et continues. La formalisation théorique des espaces flous établit que l’appartenance d’un espace à un ensemble peut se valuer par une probabilité entre la valeur 0 (n’appartient pas) et la valeur 1 (appartient) : on arrive donc à positionner sur une échelle l’imprécision et l’incertitude géographiques.

            Les travaux des géographes utilisant cette approche se centrent autour quatre thématiques. C’est d’abord pour modéliser la perception des espaces que la logique floue est employée puisqu’un espace subjectif est toujours incertain et imprécis, parce que perçu par une connaissance imparfaite et des filtres cognitifs. Ensuite, la mesure et la spatialisation de l’évolution des territoires peuvent se réaliser par l’application de la logique floue : on peut détecter des possibilités de changement, en pointant facteurs spatiaux et lieux particuliers. Enfin, la géographie s’intéressant tout particulièrement à la délimitation des espaces, la logique floue sert à définir des régions imprécises, et par extension un découpage spatial qui admet des zones de recouvrement (Rolland-May, 2000). Un dernier axe de travail se singularise quand certains géographes utilisent la théorie des ensembles flous pour construire des faits et des règles qui formalisent le raisonnement spatial (Ruffray, 2007).

            L’objectif de cette présentation, réalisée par trois géographes, est d’exposer les intérêts de l’utilisation de la théorie des ensembles flous en Géographie, à travers trois exemples qui relèvent des domaines d’application majeurs. Une mise en perspective de ces exemples permettra d’enrichir la comparaison et montrer des possibilités de transfert vers d’autres disciplines.

            Une première approche montrera les apports des traitements flous des variables qualitatives linguistiques qui portent sur l’espace. En prenant l’exemple de la spatialisation de la coupure électrique de Barcelone survenue entre le 23 et le 25 juin 2007, nous présenterons l’intérêt d’un recours aux concepts d’espaces flous et aux méthodes de traitement de données spatiales imprécises dans le champ de l’analyse rétrospective d’évènements à risques (Dutozia, 2013). En effet, compte tenu de l’absence de données spatiales fines et exhaustives sur les périmètres de coupures électriques dans les rapports officiels, reconstruire a posteriori la dynamique spatiale de ce type d’évènements impose d’avoir recours à des sources d’informations hétérogènes, dont la fiabilité et la précision spatiale peuvent être fortement variables (presse, témoignages localisés, données quantitatives, forum internet). La fusion de données hétérogène nous conduit à mettre en œuvre une spatialisation de l’information particulière, d’une part en incluant différents niveaux de grilles imbriquées auxquelles les informations vont être rattachées en fonction de leur précision spatiale (Dutozia, 2009), et d’autre part, en prenant en compte les localisateurs et les quantificateurs flous parfois utilisés dans les récits verbaux décrivant les lieux impactés.

            Une seconde perspective ouvrira le champ du changement spatio-temporel. En effet, L’incertitude est omniprésente dans tout ce qui touche aux dynamiques, qu’il s’agisse des causalités et des mécanismes en jeu dans les processus d’évolution, des lieux et dates de survenue des changements, des impacts des changements sur le fonctionnement des territoires. La démarche habituelle s’emploie à tirer les leçons du passé de deux manières. D’une part, en appliquant aux évènements passés, le principe de la plausibilité rétrospective ; le monde est appréhendé en « re-racontant les évènements passés à la lumière de ce qui nous paraît leur conférer après coup un sens logique » (Taleb, 2008). C’est ce qui fait qu’un évènement totalement imprévisible ou une suite d’évènements surprenants paraissent explicables a posteriori. D’autre part, en considérant que le futur est contenu dans le passé. Or, cette démarche classique induit deux erreurs, l’erreur de confirmation qui découle de la tendance à focaliser l’attention sur des parties seulement de ce que nous voyons puis à généraliser à ce que nous ne voyons pas, et l’erreur de narration qui émane de notre besoin de réduire les dimensions de la complexité, de simplifier. Elle ne met pas le scientifique en situation de détecter les phénomènes rares et nouveaux puisque la connaissance se construit en se basant sur la répétition d’évènements et ne tient pas compte de ceux qui ne se produisent pas (Taleb, 2008). Ces écueils conduisent certains scientifiques à remettre en question les méthodes habituelles et à proposer des démarches non conventionnelles, voire iconoclastes (Voiron-Canicio, 2012). Nous présenterons l’intérêt de méthodes nouvelles d’anticipation du futur spatio-temporel, en géographie, qui focalisent l’attention sur la manière dont un système spatial est susceptible de réagir à un évènement, et qui mobilisent, dans la modélisation et les simulations, les notions de potentialité, de sensibilité et de réactivité, dans un contexte d’imprécision et d’incertitude (Voiron-Canicio, et alii, 2013).

            Enfin, un troisième exemple développera une approche méthodologique basée sur la logique floue pour analyser des cartes mentales réalisées à l’échelle mondiale (Didelon et alii, 2011), et ainsi régionaliser le monde. Le projet EuroBroadMap « Visions de l’Europe dans le Monde » a permis d’interroger près de 10 000 étudiants dans le monde et de récolter leurs propres délimitations spatiales des régions du monde : il s’agit donc bien de cartes mentales, aux dessins imprécis et aux contours incertains, parce que subjectifs mais aussi parce que portant sur des objets de connaissance incertains (l’Europe par exemple). En conséquence, les cartes produites contiennent des franges spatiales floues, des situations intermédiaires d’appartenance à une région que la logique floue permet de formaliser. Ainsi, des régions d’appartenance, et des cœurs et des marges d’identification régionales seront mis en évidence (Didelon et alii, 2013) pour les étudiants dans le monde.

Bibliographie


– DIDELON C., De RUFFRAY S., LAMBERT N., BOQUET M. (2011), “A World of Interstices: A Fuzzy Logic Approach to the Analysis of Interpretative Maps », The Cartographic Journal, vol. 48, pp. 100-107, May

– DIDELON C., EMSELLEM K., De RUFFRAY S., BOQUET M. (2013),Students spaces of belonging on European borders”, Colloque de l’AAG (Association of American Geographers), Avril 2013, Los Angeles (Californie – USA).

– DUTOZIA J. (2009), « Compréhension des systèmes de risques, pratiques de terrain et reconstruction à posteriori des dynamiques spatiales d’évènements à partir d’informations qualitatives, hétérogènes, incertaines, imprécises et lacunaires.», Forum Méthodologique de l’UMR ESPACE 6012 CNRS, Terrain et Analyse Spatiale, Aix-en-Provence, 18 Septembre 2009.

– DUTOZIA J. (2013), Espaces à enjeux et effets de réseaux dans les systèmes de risques, Thèse de Doctorat de Géographie, 313 p., Nice, 25 Septembre 2013.

– ROLLAND-MAY C. (2000), L’Évaluation des territoires : concepts, méthodes et modèles. Paris : Hermes Science, 381 p.

– RUFFRAY S. de (2007). L’Imprécision et l’Incertitude en géographie. L’Apport de la logique floue aux problématiques de régionalisation. Paris : Université Paris Diderot-Paris 7, mémoire d’habilitation à diriger des recherches, 284 p.

– TALEB N.N. (2008), Le cygne noir : la puissance de l’imprévisible, Editions Belles lettres.

– ZADEH L.A. (1965). « Fuzzy sets ». Information and Control, vol. 8, no 3, p. 338-353.

– VOIRON–CANICIO C. (2012), « L’anticipation du changement en prospective et des changements spatiaux en géoprospective », l’Espace géographique 2012-2, p. 99-110.

– VOIRON–CANICIO C., ARTEAU K., SANT F., TORTOROLLO N., (2013), “Assessing possible changes in a town’s buildings Fuzzy logic and 3D simulation applied to the city of Nice”, Actes du 18th European Colloquium of Theoretical and Quantitative Geography, Dourdan, septembre 2013.

Share Button

L’apport des analyses multifactorielles dans les déterminations chronologiques incertaines : le cas des gravures du mont Bego

Thomas HUET (UMR CEPAM, Nice)

2ème Table Ronde « Démarches, méthodes et approches de la connaissance incertaine », Nice, 28 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


Les gravures rupestres du mont Bego (Alpes-Maritimes), forment un système symbolique préhistorique de quelques 14 000 figures de bovidés, 4 000 représentations géométriques, 1 500 gravures d’armes et autres thèmes, concentrées dans une aire bien délimitée. Les spécialistes ne se mettent pas d’accord sur leur signification, ce que l’on peut simplifier en disant que l’interprétation des gravures reste incertaine.

Grâce à un travail dirigé depuis 45 ans par Henry de Lumley, le corpus quasi-exhaustif des gravures a été relevé et celles-ci peuvent être précisément étudiées à travers leurs dimensions iconographiques et spatiales. Les informations chronologiques absolues sont à ce jour impossibles et les indications d’antéro-postérité (superpositions) entre les gravures sont rares. L’étude des superpositions, compliquée par l’érosion des surfaces gravées, semble indiquer une périodisation des principaux thèmes avec des gravures d’armes, par exemple, plus récentes que des gravures géométriques. Telles que nous les voyons, les surfaces gravées subsument donc différents systèmes symboliques. L’incertitude liée à l’interprétation des gravures dépend donc, en premier, de leur chronologie.

Il semblait raisonnable de débuter l’étude des gravures par leurs aspects les mieux renseignés : en mesurant les relations/distances iconographiques et spatiales entre chacune d’entre elles. Les analyses multifactorielles (AF) permettent d’identifier des structures masquées par l’importance numérique des données. Quand il existe une structure d’ordre sur les individus et les variables, et que ces structures sont associées, le nuage de points prend une forme parabolique, appelée « effet Guttman » (Escoffier, Pagès 2008 p. 231). Cette mise en série des individus et des variables repose sur le postulat dit de « l’unimodalité des cycles de vie des objets » (apparition, déploiement, maximum de réalisation, décroissance, disparition définitive), ce que les archéologues appellent la typo-chronologie. Selon ce postulat, les objets, que l’on peut identifier à des individus statistiques, se succèdent en incorporant graduellement de nouveaux attributs (variables) et en perdant les plus anciens.

Je présenterai le cadre théorique et méthodologique (postulat et outils) de ma recherche sur les gravures. À partir d’exemples pris dans les gravures du mont Bego, je montrerai en quoi l’utilisation des AF peut permettre d’ordonner chronologiquement des objets dont les datations sont incertaines.

Bibliographie


– ESCOFFIER B., PAGES J., 2008, Analyses factorielles simples et multiples. Objectifs, méthodes et interprétation, Paris, Dunod, 318 p.

Share Button

Modéliser l’incertitude dans la connaissance des systèmes spatiaux. L’apport des Réseaux Bayésiens

Giovanni FUSCO (UMR ESPACE, Nice)

2ème Table Ronde « Démarches, méthodes et approches de la connaissance incertaine », Nice, 28 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


Dans cette présentation, je souhaiterais d’abord présenter les grandes lignes d’une typologie de l’incertitude dans la connaissance géographique (incertitude sémantique vs. Incertitude syntaxique) ainsi qu’une classification des niveaux d’incertitude dans la connaissance scientifique en général. Ensuite, je montrerai dans quelle mesure les différents types d’incertitudes peuvent être modélisés par le formalisme des Réseaux Bayésiens. Finalement, seront présenté une série de recherches conduites à ESPACE en géographie humaine et mobilisant le formalisme des Réseaux Bayésiens.

            La conceptualisation de l’univers géographique part de la position du géographe américain B. Plewe (2002). Pour cet auteur, toute entité géographique est situé dans un univers tridimensionnel fait d’espace, de temps et d’attributs thématiques. Pour dépasser cette vision de géographie descriptive et parvenir à une géographie explicative, je propose de rajouter une quatrième dimension à l’univers géographique, celle des relations qui lient entre elles plusieurs entités définies sur les axes espace-temps-thème. Cette vision élargie de l’univers géographique nous permet également d’opérer une différenciation dans la nature (sémantique ou syntaxique) de l’incertitude qui caractérise les éléments de la connaissance géographique.

            En ce qui concerne la classification des niveaux d’incertitude dans la connaissance scientifique en général, plusieurs auteurs (Taleb 2008, Walker et al. 2010, Kwakkel et Pruyt 2011, Stirling 2010) ont proposé l’existence de niveaux gradués d’incertitude entre les deux extrêmes de la connaissance certaine et de l’ignorance complète. Les concepts différemment définis de shallow, medium et deep uncertainty (incertitude faible, moyenne et profonde) renvoient également à des méthodologies différentes dans le traitement des connaissances incertaines.

            Sur la base de ces conceptualisations, je présenterais les Réseaux Bayésiens (Pearl 2000, Jensen 2001, Nicholson et Korb 2004) en tant que solution de modélisation à base de connaissances incertaines des systèmes spatiaux, dans un contexte d’incertitudes faibles ou moyennes. Technique de modélisation au croisement entre les statistiques multivariées et l’intelligence artificielle, les Réseaux Bayésiens se fondent sur une approche probabiliste subjective : les probabilités sont des paramètres susceptibles de mise à jour (théorème de Bayes), caractérisant l’état de nos connaissances sur le système étudié, plutôt que des caractéristiques objectives qui lui sont inhérentes. La structure (ensemble de relations qualitatives) et les paramètres (valeurs quantitatifs des fonctions de probabilités) d’un Réseau Bayésien se prêtent ainsi particulièrement bien à modéliser l’incertitude syntaxique dans la connaissance d’un système spatial. Les probabilités marginales caractérisant chaque élément du système sont en revanche une bonne modélisation de l’incertitude sémantique sur les entités du système spatial. Plus particulièrement, ces incertitudes marginales peuvent prendre en compte la propagation d’éléments de connaissance certaine, incertaine (probabilités, vraisemblances) ou même contradictoire, grâce précisément à la modélisation à syntaxe incertaine. Seront également évoquée les ouvertures méthodologiques consistant à l’hybridation des Réseaux Bayésiens avec d’autres approches dépassant la seule théorie des probabilités (logique floue, théorie des évidences).

            Depuis désormais 10 ans les chercheurs d’ESPACE, et l’auteur de cette contribution en première ligne, conçoivent des protocoles de recherche à l’aide des Réseaux Bayésiens. Ailleurs, les Réseaux Bayésiens ont été d’abord utilisés dans les aspects les plus techniques de la géographie physique (télédétection, modélisation du risque hydraulique, sismique et incendie) dès les années 90. À ESPACE, ce sont en revanche des thématiques de géographie humaine, et plus précisément de géographie urbaine et de la santé qui ont été abordé par l’approche des Réseaux Bayésiens. Seront ainsi rapidement présenté des applications, à différentes échelles, dans les domaines de l’interaction ville/transports/environnement, de la métropolisation des territoires, des comportements résidentiels et des mobilités des populations, de la géoprospective territoriale d’une métropole touristique littorale (Fusco 2004, 2008, 2010, 2012, Fusco et Scarella 2012). Ces recherches ont mis en place différents types d’applications de la modélisation de connaissances incertaines : découverte de connaissances causales probabiliste, inférence probabiliste, classification bayésienne avec variables non observables, construction et évaluation probabiliste de scénarios.

Bibliographie


– FUSCO G., 2004, Looking for Sustainable Urban Mobility through Bayesian Networks, Cybergeo, n° 292, http://cybergeo.revues.org/2777, 22 p.

– FUSCO G., 2008, Spatial Dynamics in the Coastal Region of South-Eastern France , in O. Pourret, P. Naïm. B.G. Marcot (Eds.), Bayesian Networks: A Practical Guide to Applications, New York, John Wiley & Sons, p. 87-112.

– FUSCO G., 2010, Handling Uncertainty in Interaction Modelling in GIS: How will an Urban Network Evolve?, in H. Prade, R. Jeansoulin, O. Papini, S. Schockaert (Eds.) Methods for Handling Imperfect Spatial Information, Berlin, Springer, p. 357-378.

– FUSCO G., 2012, Démarche géo-prospective et modélisation causale probabiliste, Cybergéo, n° 613, http://cybergeo.revues.org/25423, 23 p.

– FUSCO G., Scarella F., 2012, Looking for socio-geographic profiles from survey data: the case of home ownership in the French Riviera, 15th AGILE International Conference on Geographic Information Science, Avignon, April 25th-27th 2012, 6 p.

– JENSEN F.V., 2001, Bayesian Networks and Decision Graphs, New York, Springer.

– KORB K.B., NICHOLSON A.E., 2004, Bayesian Artificial Intelligence, Boca Raton, FA, Chapman & Hall

– KWAKKEL J., PRUYT E.,2011, Exploratory Modelling and Analysis: an approach for model-based foresight under deep uncertainty, Fourth International Seville Conference on Future-Oriented Technology Analysis, Seville, May 12th-13th 2011.

– PEARL J., 2000, Causality – Models, Reasoning and Inference, Cambridge, Cambridge University Press.

– PLEWE B., 2002, The Nature of Uncertainty in Historical Geographic Information, Transactions in GIS, 6(4), p. 431-456.

– STIRLING A., 2010, Keep it complex, Nature, vol. 468, p. 1029-1031.

– TALEB N. N., 2008, The Fourth Quadrant: a Map of Limits of Statistics, Edge Foundation, 17 p.

– WALKER W., LEMPERT R., KWAKKEL J., 2010, Deep Uncertainty, in S.I. Gass, M. Fu (Eds.) Encyclopaedia of Operations Research and Management Science, Berlin, Springer

 

 

Share Button

Estimation de la structure par âges d’une population archéologique à partir de données d’âge indirectes

Luc BUCHET (CEPAM-CNRS, UMR 7264, Université Nice Sophia Antipolis)

2ème Table Ronde « Démarches, méthodes et approches de la connaissance incertaine », Nice, 28 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


Pour estimer les paramètres démographiques de populations pour lesquelles n’existent aucune donnée enregistrée de l’âge (c’est le cas de la plupart des séries ostéoarchéologiques), le paléodémographe ne dispose le plus souvent, pour chaque individu, que d’indicateurs de son stade d’évolution biologique (croissance pour les sujets immatures et vieillissement pour les adultes).

– Premier facteur d’incertitude : la corrélation âge civil/âge biologique.
Malnutrition, maladies infantiles, épidémies perturbent la croissance ; conditions sanitaires et patrimoine génétique influent sur le vieillissement. C’est pourquoi aucun des indicateurs d’âge ne présente une bonne corrélation statistique avec l’âge biologique.

– Deuxième facteur d’incertitude : la population de référence.
Pour passer de la distribution par stades à la distribution par âges, les paléodémographes s’appuient sur les données fournies par une population de référence adaptée (matrice donnant à la fois le sexe, l’âge civil et le stade de chaque individu). Le choix de cette population est donc déterminant.

– Troisième facteur d’incertitude : la représentativité de l’échantillon.
Des facteurs sociaux (pratiques funéraires) et biochimiques (conservation différentielle des os) perturbent l’image que l’on a de la population étudiée, tant sous l’angle de l’effectif que sous celui de la structure. La précision du résultat dépend donc étroitement de la précision de la méthode employée, mais aussi de l’effectif considéré. Il est donc important de préciser les limites statistiques des résultats obtenus (intervalles de confiance, intervalles de crédibilité).

– Solution proposée : nouvelle méthode, fondée sur le principe de l’inférence bayésienne.
Par opposition à une méthode fréquentiste dans laquelle les paramètres inconnus sont supposés fixés, une méthode bayésienne considère que ces paramètres sont des variables aléatoires ; on se donne alors une loi a priori pour ces paramètres (dans notre cas, le «standard» de mortalité défini pour les sociétés préindustrielles) et on calcule la loi a posteriori, c’est-à-dire la distribution révisée pour un site cible donné en fonction des données observées sur ce site (la répartition par stades).

Nous présentons, dans un premier temps, pour évaluation, les résultats obtenus par cette méthode pour une population dont la structure était connue grâce à des sources écrites (religieuses de Maubuisson, XVIIe-XVIIIe siècle) puis, dans un second temps, ceux obtenus pour Frénouville aux périodes gallo-romaine (IIIe-Ve siècle) et mérovingienne (du Ve à la fin du VIIe siècle).

Références bibliographiques


– CAUSSINUS (H.), COURGEAU (D.), 2010. Estimer l’âge sans le mesurer en paléodémographie. Population, 65 (1), p. 117-145.

– SEGUY (I.), BUCHET (L.), 2011. Manuel de paléodémographie, Paris, éd Ined.

– SEGUY (I.), CAUSSINUS (H.), COURGEAU (D.), BUCHET (L.), 2013. Estimating the Age Structure of a Buried Adult Population: A New Statistical Approach Applied to Archaeological Digs in France. American Journal of Physical Anthropology, 150, p. 170-183

 

 

Share Button

Journée d’étude « Dynamique des réseaux et graphes évolutifs » – 18 novembre 2013

Journée d’étude lundi 18 novembre 2013, de 10h à 17h, en salle 129, à la MSHS.

Résumé :


Cette journée d’étude consacrée aux graphes évolutifs et plus généralement à la façon dont Internet à travers les réseaux numériques permet de construire des réseaux sociaux en rendant manifestes des processus dynamiques d’interactions entre les agents. Cette journée s’insère dans le projet, Réseaux sociaux et réseaux numériques, qui regroupe des économistes, des sociologues et des mathématiciens qui travaillent sur la façon de restituer la dynamique propre à des réseaux d’interaction en rendant explicite des phénomènes qui ne pouvaient auparavant être observés et traités avant la disposition de données massives sur les interactions (Big Data).

Télécharger le programme : Programme journée sur la dynamique des réseaux et graphes évolutifs

Share Button

Conférence « Le débat public est-il démocratique ? une réponse par la socio-physique » – 12 novembre 2013

Conférence donnée par Serge GALAM (CNRS), en salle 129, mardi 12 novembre 2013 à 14h.
Campus Saint Jean d’Angely, 24 avenue des diables bleus, Nice.

Résumé :


La sociophysique éclaire de façon déroutante la dynamique « démocratique  » qui mène à la formation d’une opinion publique. Ainsi, la mise en équations d’hypothèses très simples à propos des échanges entres individus, révèle une dynamique de seuil, qui par nature produit une polarisation de l’opinion, quel que soit le sujet débattu. Si c’est bien l’opinion qui démarre au-dessus du seuil qui va inexorablement se propager parmi la population pour l’envahir, créant ainsi un extrémisme collectif dont l’étendue varie avec la durée du débat, la valeur de ce seuil n’en est pas pour autant située à 50%. Il peut varier de 10 à 90 % en fonction des croyances partagées du groupe social concerné, rendant très aisée la propagation de certaines opinions minoritaires, même totalement « aberrantes », comme dans le cas de la rumeur du 11 Septembre.

Télécharger le résumé : Galam_Conférence

Share Button

Colloque international « existe-t-il une tradition de pensée méditerranéenne en philosophie économique et sociale? » – 15-16 novembre 2013

Un colloque international organisé dans le cadre de la MSHS Sud-Est réunissant économistes, historiens et philosophes des deux rives de la Méditerranée et portant sur le thème « Existe-t-il  une tradition de pensée méditerranéenne en philosophie économique et sociale ? ».
Les œuvres et contributions des auteurs visés relèvent de l’économie politique et de la philosophie sociale essentiellement et c’est pourquoi la visée du colloque est d’abord pluridisciplinaire, ce qui explique que le CMMC (équipe d’accueil d’histoire et de civilisation méditerranéennes), le CRHI (équipe d’accueil de philosophie et d’histoire des idées), et le GREDEG (UMR CNRS d’économie, comportant une forte tradition d’histoire de la pensée et de philosophie économiques) soient étroitement associées au porteur principal du projet, la MSHS Sud-Est. Ce colloque s’inscrit dans le cadre des activités de  l’axe 3 de la MSHS Sud-Est intitulé « L’Europe et ses Autres ».
L’idée de base est d’étudier dans l’histoire des idées économiques, sociales et philosophiques s’il existe un certain nombre de spécificités culturelles et intellectuelles de l’espace méditerranéen qui caractérisent les grands penseurs intéressés par la philosophie économique et sociale à différentes époques.

Responsable scientifique : Professeur Richard ARENA (Directeur de la MSHS Sud-Est et membre du GREDEG), arena.unice@gmail.com
Organisation et contact : Jean-Charles Briquet-Laugier (briquet@unice.fr)

Share Button

Journée d’étude « Justice et sociétés post-esclavagistes : quelle citoyenneté ? » – 25 octobre 2013

Journée d’étude « Justice et sociétés post-esclavagistes: quelle citoyenneté? » proposée le vendredi 25 octobre de 9h à 18h00, salle 3A05 (St Jean d’Angély 2). L’accent est mis sur la citoyenneté.

Programme et résumé:

ProgrammeSeminaireJusticePostEsclavageNice25oct13

Share Button

Symposium sur le loup du 9 au 12 octobre 2013

j3gn0oi3

Du 9 au 12 octobre, se dérouleront les journées consacrées au symposium sur le loup, à St Martin-Vésubie (Alpes-Maritimes).

Retrouvez toutes les informations sur le document joint et n’hésitez pas à vous inscrire :

Dossier de presse-1

Share Button

Symposium sur le loup – 9 au 12 octobre 2013

loupJournées dédiées au symposium sur le loup, à St Martin-Vésubie (Alpes-Maritimes), du 9 au 12 octobre.

Retrouvez toutes les informations sur le document joint et n’hésitez pas à vous inscrire :

dossier-de-presse-1

Share Button

Premières rencontres scientifiques du groupe Res-Hist – 26-28 septembre 2013

Réseaux et histoire

 

 

 

 

Organisées par le Centre de la Méditerranée Moderne et Contemporaine, en partenariat avec l’Institut Universitaire de France et la Maison des Sciences de l’Homme et de la Société Sud-Est, les premières rencontres se dérouleront à la MSHS Sud-Est de Nice du 26 au 28 septembre 2013.

Introduction

Une courte introduction pour présenter l’esprit de ces premières rencontres par Silvia MARZAGALLI et Pierre-Yves BEAUREPAIRE (CMMC, Université Nice Sophia Antipolis et Institut Universitaire de France): cliquer ici


Voir aussi

Retrouvez les textes des présentations, résumés et enregistrements audios des journées, depuis la carnet de recherche dédié aux rencontres : http://reshist.hypotheses.org/74

Share Button

L’incertitude dans les sciences géographiques : spécificités, schémas d’appréhension

Giovanni FUSCO (UMR 7300 – ESPACE « Etude des Structures, des Processus d’Adaptation et des Changements de l’Espace »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


Au cours des vingt dernières années, le concept d’incertitude, qui historiquement avait des définitions précises (quoique différentes) dans la théorie économique ou dans la théorie des erreurs, a fécondé la réflexion dans d’autres champs disciplinaires. En Géographie, le concept d’incertitude est un chapeau recouvrant différents aspects liés à une connaissance non certaine, floue ou même à un manque de connaissance sur les objets d’étude. De multiples pistes de recherche participent ainsi à la problématique de l’incertitude dans notre discipline : l’imprécision et l’incomplétude des données et des connaissances, l’indétermination des objets et des processus spatiaux, l’impossibilité de connaître de l’état (présent ou passé) d’un système spatial et l’imprédictibilité de son état futur, les problèmes liés au traitement ou à la représentation d’informations et de connaissances spatiales incertaines, la subjectivité inhérente à toute question géographique, etc.. Au lieu d’être perçue uniquement en terme négatif, en tant que limite à la connaissance géographique, l’incertitude est désormais de plus en plus intégrée par une partie croissante de géographes (Couclelis, 2003) comme étant une composante essentielle des connaissances produites. Jadis « cachée sous le tapis » ou omise dans le discours géographique, l’incertitude devient alors un point incontournable dans la démarche de la recherche géographique, théorique ou appliquée.

Les géographes de l’équipe niçoise des Dynamiques Territoriales de l’UMR ESPACE ont souhaité faire le point sur les spécificités des questions d’incertitude qui émergent en sciences géographique, en accordant une attention particulière aux recherches menées au sein de l’UMR : l’analyse et la modélisation spatiales. Les principales questions relevées sont les suivantes, étayées par une importante bibliographie scientifique, française et internationale :

Le traitement de l’incertitude dans les données spatiales, nécessaires à toute problématique d’analyse spatiale. Il s’agit ici d’incertitudes liées à la granulométrie de la donnée, aux opérations d’agrégation/désagrégation spatiales et temporelles, à l’échelle choisie, à la pluralité des sources de données, aux contextes de production de la donnée, à l’échantillonnage, etc. Plus précisément, ces questionnements peuvent être rendus plus concrets de la manière suivante : comment réduire l’incertitude des données issues d’une campagne de mesure d’un phénomène spatial comme la pollution de l’air ? Comment l’incertitude des paramètres mesurés affecte‐t‐elle celle de l’indicateur spatial composite qui en découle ? Comment les incertitudes de données spatiales de différentes sources se combinent‐elles ? Comment se modifie l’incertitude des données de chômage (obtenues par échantillonnage) en passant de l’échelle communale à celle départementale ? Ces questions ont été fortement développées dans la littérature géomatique (GIS science) au cours des vingt dernières années.

L’incertitude dans la définition des objets géographiques est plus communément présente dans les débats de la discipline, sans pour autant être particulièrement formalisée. Dans ce cadre, se posent des questions à la base de l’analyse géographique, telles les incertitudes découlant de définitions – ambigües, ou non consensuelles, ou différemment applicables ‐ des concepts de ville, de région, de continent, de lieu, de paysage, etc. Ces incertitudes découlent des hiatus inéliminables entre le continuum de la réalité géographique et la nécessaire discrétisation des catégories logiques d’analyse du géographe. Souvent les incertitudes touchant aux délimitations des objets spatiaux sont à mettre en relation avec les incertitudes des définitions de ces objets.

L’incertitude des schémas d’appréhension des phénomènes spatiaux est inhérente à toute appréhension théorique et conceptuelle en géographie. L’incertitude touche ici non pas aux seules catégories logiques de l’analyse mais aux enchainements entre concepts qui constituent des théories, et à la validité et l’applicabilité de celles‐ci. Avec quelle certitude un schéma « centre‐périphérie » peut‐il expliquer le fonctionnement de l’espace européen ? Avec quelle certitude la théorie mobilisée est‐elle adaptée à l’espace étudié ? Qu’est‐ce qui change quand un modèle général reconnu est adapté aux conditions de lieux spécifiques ?

L’incertitude liée à la complexité des systèmes spatiaux porte sur la connaissance des processus spatio‐temporels, des interactions spatiales, de la reconstitution des états passés des systèmes spatiaux et de la prospection de leurs états futurs (imprédictibilité des systèmes spatiaux). Il s’agit encore une fois de questions qui sont liées à la théorisation de la science géographique, mais qui ont des répercussions sur les connaissances concrètes que le géographe peut produire. Avec quelle certitude pouvons‐nous conclure qu’un processus de gentrification est en cours dans ce quartier en partant des interactions multiples qu’il entretient avec le reste du système urbain ? Avec quelle certitude peut‐on prédire l’aboutissement de ce processus ? De quel degré d’incertitude la prospective de ce phénomène peut‐elle être encadrée ?

L’incertitude dans la modélisation spatiale est une thématique au coeur des démarches de la géographie théorique et quantitative. Sont ici abordées des questions comme l’introduction et la propagation de l’incertitude dans tous les types de modélisation, de la géo‐simulation à des modèles plus descriptifs. Plus particulièrement, les modèles de géosimulation constituent des laboratoires « virtuels » pour le géographe. Ils proposent des répliques (toujours imparfaites) des réalités géographiques, et permettent ainsi une expérimentation impossible dans le réel, et cela par différents types de formalisme automates cellulaires, systèmes multi‐agents, algorithmes génétiques, systèmes d’équations déterministes ou probabilistes. Or ces terrains « virtuels » introduisent des niveaux ultérieurs d’incertitude dans les connaissances produites. Comment se propage, par exemple, l’incertitude de la connaissance des règles de fonctionnement des agents sur celle des résultats d’une simulation ? Comment une connaissance incertaine (les grandes directions d’une diffusion d’une maladie dans l’espace par exemple) peut‐elle être introduite dans de tels modèles ?

L’incertitude dans la représentation de la connaissance spatiale renvoie à la question centrale pour le géographe de la représentation (notamment cartographique) de la connaissance sur l’espace, et même de la communication spatiale. Or, comment représenter une connaissance incertaine ? Quelle est, par exemple, la sémiologie graphique la plus appropriée pour représenter sur une carte (ou sur une carte dynamique) les limites des zones inondables que l’on connait seulement de façon incertaine ? Comment cartographier la probabilité d’appartenance d’un lieu à tel ou tel groupe de lieux ?

L’incertitude et la subjectivité dans les phénomènes spatiaux est une approche géographique de questionnements plus culturels, sociaux, normatifs, à travers notamment la conception et la perception de l’espace. Les préoccupations du géographe rejoignent ici celles d’autres scientifiques travaillant sur des « sujets » perceptifs, cognitifs, culturels et dotées d’intentionnalité. Comment, par exemple, la perception subjective des individus peut se répercuter sur l’incertitude de notre connaissance du phénomène de gêne acoustique dans l’espace urbain ? Comment la perception subjective de l’Europe redéfinit‐elle de manière incertaine l’objet géopolitique « Union Européenne » ? Dans quelle mesure une conception surfacique de l’espace structure la propriété foncière de manière à pérenniser des inégalités sociales ? Comment le géographe intègre‐t‐il des données d’entretien, par essence subjectives ?

L’incertitude dans les processus décisionnels sur l’espace concerne des problématiques proches de l’aménagement du territoire, la géographie pratiquant l’aide à la décision au service des acteurs de l’espace (élus, professionnels de l’aménagement, acteurs économiques, groupes citoyens). Les différentes questions d’incertitude abordées jusqu’à ici prennent une tournure différente dans un contexte d’aide à la décision. Comment, par exemple, prendre en compte l’incertitude de la connaissance du futur du système urbain (appréhendé par un jeu de scénarios) dans la décision de réaliser un équipement ? Comment évaluer l’impact d’une nouvelle carte scolaire dans la ville en sachant que les ménages peuvent éventuellement adopter des stratégies de contournement ?

Bibliographie


– Agumya A., Hunter G., 2002, Responding to the consequences of uncertainty in geographical data, Int. J. Geographical Information Science, vol 16, no. 5, p. 405‐417

– Arnaud A., Davoine P.‐A., 2009, Approche cartographique et géovisualisation pour la représentation de l’incertitude, SAGEO 2009, halshs‐00667166, version 1 ‐ 7 Feb 2012

– Caloz, R., 2005, Réflexions sur les incertitudes et leur propagation an analyse spatiale, Géomatique 15/2005, Territoires Ruraux, p. 303‐319

– Corgne S., Hubert-MoyL., Mercier G., Dezert J., 2004, Application of DSmT for land cover change prediction, in Smarandache F., Dezert J.: Advances and Applications of DSmT for information Fusion. From Evidence to Plausible and Paradoxical Reasoning for Land Cover Change Prediction, American Research Press, Rehoboth, pp.371-382.

– Couclelis H., 2003, The Certainty of Uncertainty: GIS and the Limits of Geographic Knowledge, Transactions in GIS, 7(2), p. 165‐175

– De Ruffray S., 2007, L’imprécision et l’incertitude en géographie. L’apport de la logique floue aux problématiques de régionalisation, Mémoire d’habilitation à diriger des recherches, Université de Paris VII, Volumes 1, 2 et 3, 588 pages.

– De Ruffray S., Hamez G., 2009, « La dimension sociale de la cohésion territoriale. L’exemple de l’accessibilité aux maternités dans la Grande Région », l’Espace Géographique, 2009-4, pp. 328-344

– Duckham M., 2002, Uncertainty and geographic information: computational and critical convergence, research paper, Department of Computer Science, University of Keele, Staffordshire, UK

– Duckham M., Mason K., Stell J., Worboys M., 2001, A Formal Approach to Imperfection in Geographic Information, Computer, Environment and Urban Systems, vol 25, p. 80‐103

– Harrower M., 2003, Representing Uncertainty: Does it Help People Make Better Decisions?, research paper, Department of Geography, University of Wisconsin‐Madison Plewe B., 2002, The Nature of Uncertainty in Historical Geographic Information, Transactions in GIS, 6(4), p. 431‐456

– Prade H., Jeansoulin R., Papini O., Schockaert S. (Eds.), 2010, Methods for Handling Imperfect Spatial Information, Berlin, Springer

Share Button

L’incertitude en archéologie

Frédérique BERTONCELLO (UMR 7264-CEPAM « Cultures et Environnements : Préhistoire, Antiquité, Moyen Âge »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


« L’archéologie ayant l’objectif de reconstituer la totalité des composantes du système d’une société du passé, possède l’étrange propriété de regrouper quasiment toutes les disciplines scientifiques et de les appliquer sur des données partielles, biaisées et peu représentatives et sur des processus parfois non étudiables ». Cette phrase, tirée du récent Manuel d’Archéologie de F. Djindjian (2011), résume de manière très juste les enjeux de la recherche archéologique, au sein desquels l’incertitude est omniprésente. L’incertitude est en effet inhérente, consubstantielle, aux données mobilisées par l’archéologie. Elle revêt plusieurs formes et se manifeste à différents niveaux dans la production de connaissances. Pour la première table ronde du projet « Faire Sciences avec l’incertitude », nous ferons un bilan des enjeux spécifiques de l’incertitude en archéologie en proposant une classification des types d’incertitude qui affectent les données mobilisées et les processus de connaissance dans cette discipline.

1. L’incertitude des données
Les données mobilisables par l’archéologue pour restituer le fonctionnement des sociétés anciennes ne sont qu’un reflet partiel du fonctionnement de ces sociétés. La population (au sens statistique) analysée n’est donc qu’un échantillon de la population initiale (Gallay 1986), la difficulté résidant dans l’impossibilité d’évaluer la représentativité de l’échantillon analysé.

Des données lacunaires

Les vestiges archéologiques disponibles pour l’étude ne représentent qu’une partie seulement des activités humaines passées, celles qui ont laissé des traces suffisamment durables pour nous parvenir. Les corpus disponibles pour l’étude sont en outre lacunaires dans la mesure où un ensemble de processus taphonomiques – facteurs post‐dépositionnels d’origine naturelle ou anthropique – interfèrent sur la conservation des vestiges archéologiques après leur dépôt. À cela s’ajoutent les biais liés à l’intensité variable des recherches et aux stratégies d’échantillonnage mises en œuvre.

Des données ambigües

L’interprétation de la signification d’un objet archéologique n’est pas univoque mais peut donner lieu à plusieurs interprétations concurrentes (ambigüité entre la forme et la fonction). Les explications proposées par l’archéologue, depuis la fonction d’un objet jusqu’au fonctionnement d’une société, sont donc toujours du domaine du plausible, non du certain. Le degré d’incertitude des interprétations proposées va croissant lorsque l’on passe du domaine technologique au domaine économique et social et culmine dans la sphère religieuse et symbolique.

Des données imprécises

L’imprécision peut être liée à la mesure. En archéologie elle affecte principalement la localisation des objets étudiés (au sens large, depuis l’artefact jusqu’au site en passant par l’édifice et le squelette), dans le temps (datations archéométriques basées sur une mesure du taux de radiocarbone résiduel par exemple) et dans l’espace (précision de la localisation autorisée par les différentes techniques de géolocalisation : repérage manuel sur une carte, boussole, GPS, tachéomètre, Lidar etc.). L’imprécision peut aussi affecter la caractérisation des objets quand cela implique la mesure de similitudes/dissemblances par rapport à une population de référence (par exemple pour l’estimation de l’âge du défunt à partir de restes osseux).
L’imprécision peut également provenir du caractère vague, mal défini des catégories utilisées pour caractériser, dater, localiser un objet (par exemple des datations par phases chrono‐culturelles du type « gallo‐romain », ou la polysémie qui caractérise la notion de « site archéologique »).

Des données hétérogènes, sources d’incertitude

Le recours, usuel en archéologie, à des données de nature diverses issues de sources variées (archéologiques, textuelles, cartographiques, environnementales etc.) ajoute de l’incertitude quand il s’agit de les confronter, dans la mesure où chaque type de source présente des résolutions spatiales et chronologiques différentes et des niveaux de précision variés.

Des séries discontinues

Le niveau de renseignement/d’information disponible sur les différents objets d’un même corpus est rarement homogène. Cela nécessite, pour faire des comparaisons, de choisir le seuil à partir duquel un objet est considéré comme suffisamment renseigné pour être comparable aux autres, ce qui implique de définir le plus petit dénominateur commun afin de transformer un corpus hétérogène en un corpus homogène au niveau d’analyse retenu (relation entre niveau d’incertitude et niveau d’analyse). Cette généralisation entraîne généralement une perte d’information et donc une diminution de la précision.

2. L’incertitude des processus
La méconnaissance des processus de fonctionnement des systèmes/phénomènes étudiés.

En raison des filtres successifs (cf. supra) existant entre les sociétés étudiées (l’objectif de connaissance) et les données mobilisables (les moyens de la connaissance), une part plus ou moins importante du fonctionnement des phénomènes ou systèmes étudiés échappe à la connaissance et il n’est pas certain que les processus supposés à l’oeuvre dans la transformation de ces systèmes jouent effectivement le rôle qu’on leur prête. Cela est d’autant plus crucial en archéologie qu’il n’y a pas de vérification possible de la réalisation future des scénarios envisagés (approche rétrospective ≠ prospective).

L’incertitude liée au raisonnement scientifique (processus d’analyse)

Le passage de la découverte d’un objet archéologique à son interprétation en termes de fonctionnement d’une société implique une succession d’inférences (par exemple passer de la découverte de charbons de bois à la restitution de la gestion des ressources ligneuses par une communauté), dans desquelles interviennent non seulement les connaissances et l’expertise de l’archéologue, mais également sa subjectivité, ses références culturelles et idéologiques, son fonctionnement cognitif etc.

Les réponses apportées à cette incertitude irréductible des données archéologiques ont varié et alimenté différents courants théoriques, depuis les approches prônant la constitution de très vastes corpus de données censés réduire l’incertitude par la recherche de l’exhaustivité dans la collecte et l’enregistrement des données (par ex. Demoule et al. 2002), les approches essentiellement descriptives refusant toute généralisation en raison de la complexité et de l’unicité des différentes cultures humaines (« Post‐processual Archaeology », Hodder 1991), jusqu’à celles mettant l’accent sur la nécessité de formalisation de la description – des données et des processus – (Gardin 1979) comme outil de réduction possible de l’incertitude permettant des confrontations et la mise en évidence de régularités, en se fondant notamment sur une approche systémique des sociétés (« Processual Archaeology» ou « New Archaeology », par ex. Clarke 1971, 1973). De développement plus récent, les approches visant à quantifier l’incertitude en recourant aux méthodes statistiques (calcul de probabilités, logique floue, approche bayesienne notamment) ont d’abord été utilisées. dans les domaines reposant sur des mesures (datations archéométriques, estimation de l’âge, etc.), avant d’être mises à contributions plus largement pour estimer la probabilité d’appartenance d’objets archéologiques (au sens large) à des catégories, fonctionnelles, chronologiques, culturelles etc. (par ex. Buck et al. 1996, Ejstrud 2005, Hatzinikolaou 2006). La modélisation apparaît également comme un outil prometteur en archéologie du fait de la non reproductibilité des phénomènes observés (à la différence des sciences expérimentales). Dans une démarche rétrospective, la modélisation permet en effet d’envisager la variété des « possibles », de tester différentes hypothèses, différents scénarios d’évolution du système étudié et d’en estimer ainsi la vraisemblance (van der Leeuw et Kohler 2007).

Bibliographie


– Buck C. E., Cavanagh W. G., Litton C. D., 1996 ‐ Bayesian approach to interpreting archaeological data. Chichester, Wiley.

– Clarke D., 1971 – Analytical Archaeology, London, Methuen and Co.

– Clarke D., 1973 ‐ Archaeology: the loss of innocence. Antiquity, 47, pp. 6–18.

– Demoule J.‐P., Giligny F., Le Hroeff A., Schnapp A., 2002 – Guide des méthodes de l’archéologie, Éditions de la Découverte, Paris, 300 p. ; réédition augmentée 2005 et 2009.

– Demoule J.‐P., 2005. L’archéologie, entre science et passion, collection Découvertes, Gallimard, Paris, 160 p.

– Djindjian F., 2011 – Manuel d’archéologie. Paris, Armand Colin (Collection U – Archéologie).

– Ejstrud B., 2005 ‐ Taphonomic Models: Using Dempster‐Shafer theory to assess the quality of archaeological data andindicative models. In : van Leusen, M., Kamermans, H. (eds.) ‐ Predictive Modelling for Archaeological Heritage Management: a research agenda. Rijksdienst voor het Oudheidkundig Bodemonderzoek, Amersfoort, p. 183‐194.

– Gallay A., 1986 – L’archéologie demain. Paris, Belfond.

– Gardin J.‐C., 1979 ‐ Une archéologie théorique. Paris, Hachette.

– Hatzinikolaou, E.G., 2006 ‐ Quantitative methods in archaeological prediction: from binary to fuzzy logic. In : N.W. Mehrer ‐ K.L. Wescott (eds.) ‐ Gis and Archaeological Site Location Modeling. CRC Press, Boca Raton, p. 437‐446.

– Hodder I., 1991 ‐ Postprocessual Archaeology and the Current Debate. In : Processual and Post‐Processual Archaeologies: Multiple Ways of Knowing the Past, Edited by R. Preucel, pp. 30–41. CAI Southern Illinois University at Carbondale, Occasional Paper No. 10.

– Testard A., 2012 – Avant l’Histoire. L’évolution des sociétés de Lascaux à Carnac. Paris, Gallimard.

– Van der Leeuw S. E., Kohler T., eds., 2007 ‐ The Model‐Based Archaeology of Socio‐Natural Systems. School of Advanced Research, Santa Fe, NM.

Share Button

La notion d’incertitude dans les sciences historiques

Arnaud BARTOLOMEI (EA 1193 – CMMC «Centre de la Méditerranée Moderne et Contemporaine »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


La notion d’incertitude peut être abordée de deux façons par l’historien : sous un angle épistémologique, d’abord, ce qui l’amène à s’interroger sur la valeur de la connaissance historique et le plus ou moins grand degré de « certitude historique » auquel il peut espérer parvenir en utilisant les sources auxquelles il a accès ; comme un objet scientifique, ensuite, lorsque la perception de l’incertitude dans les sociétés passées devient l’objet même de sa recherche. Les propositions de réflexion formulées par les historiens membres du CMMC, dans le cadre du projet de la MSH‐Sud Est, s’inscrivent dans ces deux perspectives que la présente contribution entend donc aborder successivement.

D’un point de vue épistémologique, l’incertitude occupe une position centrale dans la réflexion que l’historien nourrit sur sa propre pratique scientifique et sur sa discipline. Deux questions peuvent plus directement résumer la teneur de cette réflexion : dans quelle mesure est‐il certain qu’un fait historique s’est produit ? Dans quelle mesure est‐il certain qu’un fait historique devait se produire ? La première question renvoie à la construction de la vérité historique et à la scientificité même de la discipline. Depuis l’école dite « méthodique » de la fin du XIXe siècle, l’histoire prétend à un certain niveau de scientificité : la critique des sources et le respect d’un protocole scientifique rigoureux doivent en effet permettre à l’historien d’éviter les erreurs et, donc, de se livrer à une reconstitution fidèle et certaine des faits passés. Cette illusion scientiste, entretenue un temps par l’histoire sérielle chère à l’école des Annales, qui avait élargi la conception du phénomène historique en y incluant les faits économiques, démographiques, sociologiques et culturels, n’est cependant plus partagée, au sein de la communauté scientifique, depuis les remises en cause fondamentales du linguistic turn et de la microstoria : les sources sont de moins en moins perçues comme des indices ou des traces, permettant de reconstituer de façon certaine la réalité historique et, de plus en plus, comme des représentations discursives et orientées d’un réel à jamais
insaisissable. Dès lors, l’historien n’est plus certain que les « choses se sont passées ainsi » mais plutôt que les « choses sont exprimées ainsi dans les sources ». Les égodocuments (journaux intimes et autres écritures du for privé) qu’étudie Pierre‐Yves Beaurepaire constituent une sorte d’exemple paradigmatique du désenchantement qu’ont éprouvé les historiens vis‐à‐vis de leurs sources au cours des dernières décennies et des nouvelles orientations qu’ont suivies, en conséquence, les recherches historiques, puisque, comme il l’écrit, « la certitude a rapidement cédé la place à l’incertitude, lorsque les historiens en se familiarisant avec l’écriture du for privé ont mis en évidence les stratégies d’écriture, de scénarisation ou d’évitement des scripteurs ».

La reconstitution et la description du passé ne constituent cependant qu’une part restreinte du travail de l’historien qui est aussi, et peut‐être avant tout, une démarche d’explication et de compréhension du passé, à savoir de reconstitution des « chaînes causales » qui conduisent à l’occurrence d’un évènement ou d’un fait historique. En la matière, « le tournant critique » des années 1980 a également été révolutionnaire puisqu’il a mis à mal les implicites structuralistes et déterministes sur lesquels reposaient, à l’époque des Annales, les schémas explicatifs des historiens. A l’ère des certitudes, où « l’on s’imaginait que l’économique secrétait le social comme le foie sécrète la bile » (Jacques Dupâquier, 1993) et où les phénomènes historiques apparaissaient donc largement déterminés par leur environnement géographique, économique et culturel, succède, là aussi, une ère d’incertitudes, qui, en plaçant la focale sur la singularité des trajectoires individuelles et l’agency des acteurs, tend à remettre en cause les « grands discours » qui structuraient notre connaissance du passé.

L’opposition entre la « certitude » de la série quantitative et l’incertitude née du « tournant critique » ne constitue cependant pas nécessairement une impasse pour la recherche historique contemporaine qui peut aussi se réinventer en étant attentive aussi bien « à la norme qu’à l’écart à la norme, … à la trajectoire probable et à [ses] inflexions réelles » (P.‐Y. Beaurepaire, 2003) – et qui dispose grâce à l’informatique des instruments nécessaires pour y parvenir.

En tant qu’objet historique, c’est probablement dans le champ de l’histoire économique et, plus précisément, de l’histoire de la décision économique, que la notion d’incertitude a le plus retenue l’attention des historiens au cours des dernières décennies. Cette notion occupe en effet une position centrale parmi les paradigmes de l’économie dite néo‐institutionnaliste qui a eu une très grande influence, à travers les nombreux commentaires qu’ont suscités les travaux d’Oliver Williamson et de Douglass North, sur les historiens de l’économie. Les travaux développés depuis plusieurs années sur l’histoire des réseaux marchands offrent diverses illustrations de l’intérêt que peut représenter la notion d’incertitude pour appréhender, sous un angle nouveau, les pratiques des acteurs du commerce à distance de l’époque préindustrielle. Dans un monde dominé par la lenteur des communications et la faiblesse des recours légaux, l’incertitude constitue en effet la caractéristique première du commerce à distance, que les acteurs s’efforcent de réduire en collectant des informations sur les cours des marchandises et le crédit de leurs partenaires, en inscrivant leurs activités dans le cadre de réseaux de confiance, au sein desquels la réputation et la recommandation offrent des garanties, ou encore en concourant, par leurs pratiques, à la création d’institutions et de normes informelles permettant de limiter les comportements opportunistes de leurs partenaires et de réguler les échanges marchands. La notion de « coût de transaction » apparaît dès lors comme un instrument permettant de formaliser l’ensemble des coûts, monétarisés ou pas, engagés par un marchand pour sécuriser son accès au marché et réduire l’incertitude inhérente à toute transaction.

A l’intérieur de ce cadre théorique large, Silvia Marzagalli et Arnaud Bartolomei animent au sein du CMMC une réflexion sur la dynamique des réseaux marchands dans l’Europe des XVIIIe et XIXe siècles. Ils ont déjà livré diverses contributions sur la fonction des colonies de marchands étrangers dans la structuration des circuits commerciaux, le rôle de certaines professions du commerce – comme les capitaines de navire ou les voyageurs de commerce – dans l’établissement de relations commerciales nouvelles, les instruments mercantiles utilisés pour sécuriser les transactions et réduire l’incertitude marchande (comme la lettre de change, la presse mercantile ou la correspondance) et le recours aux institutions étatiques dans l’intermédiation marchande. C’est notamment dans cette dernière perspective que s’inscrivent les différents programmes de recherche actuellement en cours au sein du CMMC sur l’étude de la fonction consulaire en Europe et dans le monde méditerranéen aux époques moderne et contemporaine.

Share Button

Le poids de l’incertitude en économie : aspects théoriques et empiriques

Richard ARENA, Christian LONGHI (UMR 7321 – GREDEG « Groupe de Recherche en Droit, Economie et Gestion »)
1ère Table Ronde « L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

Résumé :


En économie, la notion d’incertitude joue un rôle essentiel à deux niveaux extrêmement différents. Le premier renvoie à l’élaboration de la théorie économique et relève de l’étude des processus de décision, que ceux-ci aient lieu :

– dans le contexte du choix d’un agent économique isolé qui fait face à ce que l’on appelle les états du monde; il peut connaître ces états (prévision parfaite), ne pas les connaître mais être capable d’associer à ces états une distribution de probabilités (risque) ou ne pas les connaître et ne pas avoir cette capacité (incertitude). On se réfère alors à ce que l’on appelle la théorie de la décision largement sous-tendue parla conception calculatrice et substantive du choix rationnel individuel.

– dans le contexte d’un choix stratégique opéré par un agent économique qui prend également en compte les comportements d’autres agents également concernés par une interaction sociale donnée, à partir d’une anticipation stratégique relative aux choix de ces derniers; la distinction entre risque et incertitude demeure mais elle est largement conditionnée par la nature de la relation entre agents, c’est-à-dire, par les connaissances dont ils disposent et les croyances qu’ils adoptent; on se réfère alors à ce que l’on appelle la théorie des jeux.

– dans le contexte d’une décision qui n’est pas purement dépendante des comportements stratégiques des acteurs mais aussi des formes d’intéraction sociale des agents: confiance, mimétisme, influence, etc. Dans ce cas, les agents économiques sont dits hétérogènes, l’incertitude devient la règle et conditionne les comportements individuels, collectifs et sociaux. On se réfère alors à la théorie des intéractions économiques.

Ces trois contextes relèvent aussi bien de la micro que de la macroéconomie, même si cette dernière suppose la prise en compte du concept d’agent représentatif qui rend encore plus complexe le problème de la signification de l’incertitude en économie.

Plus récemment, de nouvelles approches sont apparues et modifient essentiellement le paysage. Il s’agit :

– De l’économie comportementale qui se développe, se diffuse considérablement et consiste à adopter comme point de départ les comportements observés tels par exemple qu’ils apparaissent sur les marchés et non une axiomatique des choix.

– De l’économie expérimentale qui se concentre dans quelques centres académiques et consiste à adopter comme point de départ les comportements économiques observés en laboratoire selon des protocoles prédéfinis supposant la prise en compte d’une axiomatique des choix.

Dans ces deux contextes, la notion d’incertitude ne se modifie pas mais elle joue un rôle grandissant couplé à celui d’apprentissage. Cette importance conférée à l’incertitude s’étend aussi aux cas où la notion de rationalité collective ou sociale se substitue à celle de rationalité individuelle.

Dans notre contribution, il s’agira en premier lieu de voir en quoi ces nouvelles approches ont pu modifier mais aussi complexifier la notion d’incertitude en économie.

Un deuxième niveau a trait à l’analyse des données, de l’incertitude ou de la qualité inhérentes aux données mobilisées, des contraintes qui pèsent sur la disponibilité de données, leur adéquation aux analyses développées, de la pertinence des modélisations et résultats obtenus, indépendamment des seuls problèmes de significativité statistique. Cette dimension liée à l’incertitude est particulièrement pertinente en économie, contrairement à ce que la production continue d’indices par les instituts pourrait laisser croire. Elle relève principalement de ce que l’on appelle l’économie appliquée.

L’économie a toujours été dans sa partie empirique essentiellement consacrée à l’observation des « économies réelles », à l’explicitation de leur fonctionnement, de leurs performances (croissance, exportation…), à l’établissement de prédictions sur leurs performances futures, à la vérification empirique des prédictions théoriques. Récemment deux courants nouveaux se sont développés, qui visent à réduire l’incertitude selon des modalités parfaitement opposées. Le premier est fondé sur la production de données d’expérience. Il s’agit de créer des environnements en laboratoire permettant d’isoler des éléments de décisions individuelles, visant essentiellement l’évaluation des modèles théoriques existants. Le second n’est à l’opposé pas préoccupé par l’analyse théorique ou la compréhension des phénomènes qu’il traite. Il s’agit de les prédire en utilisant toutes les données disponibles possibles, selon une démarche purement statistique, le meilleur modèle est sélectionné selon la pertinence de ses prédictions, quelles que soient ses variables explicatives. Ces démarches en termes de « data mining » ou de « nowcasting » se développent avec la multiplication des données disponibles.

Mais l’essentiel de l’analyse empirique reste centrée sur la représentation et l’observation des économies réelles. Il est bien évident que l’économie n’est jamais directement observable ni son fonctionnement connu ; tous les faits économiques sont construits, comme le sont leurs relations. L’observation des « économies réelles » n’est pas neutre, elle vise à produire des données pertinentes pour les théories qui sous-tendent leur représentation, et pour les politiques économiques qu’elles définissent. On présentera les caractéristiques essentielles des enquêtes présidant à la construction des appareils statistiques en économie, et les enjeux et limites liés à la production des données, au traitement des données, et à la modélisation. On illustrera notre propos avec l’analyse des territoires et de l’innovation en économie. La représentation économique et le rôle des territoires dans l’explication des performances économiques a considérablement évolué avec l’émergence de problématiques théoriques nouvelles, déplaçant les questions pertinentes, invalidant les connaissances de leur dynamique économique ou la vraisemblance des résultats acquis. Le renouvellement théorique implique le renouvellement des données nécessaires à l’observation de l’économie, à la mesure comme à la compréhension de son activité.

Bibliographie


– Arena R.and A. Festré (eds),Knowledge, Beliefs, and Economics, Edward Elgar: Cheltenham,U.K., 2007.

– Bańbura, M., Giannone, G., Reichlin L.,Nowcasting, Working Paper Series 1275, December2010.

– Eber, N., Willinger, M., 2012,L’économie expérimentale, Repères, 126p.

– Choi, H.,Varian, H., 2009,Predicting the Present with Google Trends, mimeo, April.

– Krugman, P., 1991, Geography and Trade, MIT Press.

– Morgenstern, O., 1972, Précision et incertitude des données économiques, Paris, Dunod.

– Moureau, N.,Rivaud-Danset, D., 2004, L’incertitudedans les théories économiques. Éditions La Découverte.

– OECD, 2005, Oslo Manual, Eurostat,OECD, Paris.

– Reinhart C. Rogoff K, 2010, « Growth in a Time of Debt », American Economic Review: Papers & Proceedings 100, May: 573-578.

– Vernon L. Smith, 1991, Papers in Experimental Economics, Cambridge University Pr.


Share Button

Introduction à la discussion générale et conclusion de la rencontre

Pierre LIVET (UMR 7304 – CEPERC « Epistémologie et Ergologie Comparatives »).

1ère Table Ronde «  L’incertitude : regards pluridisciplinaires », Nice, 19 juin 2013, MSHS Sud-Est, Saint-Jean d’Angély 3, Projet « Faire Science avec l’Incertitude », Axe 4 : « Territoires, systèmes techniques et usages sociaux »

 

 

Share Button
1 11 12 13 14