notre Réseau Arcati (2000-2005)
notre Réseau ARCATI
(Atelier-Réseau Coopératif pour Analyses Textuelles Informatisées)
HISTORIQUE (depuis sa création fin 1999),
OBJECTIFS : Veille et assistance méthodologiques
PARTENAIRES
Programme des Séminaires de 2000 à 2004
Nous développons à l’Iresco l’équivalent d’un Service de Veille et Assistance méthodologiques pour les personnels de recherche (principalement des sociologues) qui pratiquent ou souhaitent pratiquer des analyses informatisées de corpus textuels. Ce service pourrait être reconnu comme une des « antennes » fédérées au Réseau informel ARCATI (= Atelier-Réseau Coopératif pour Analyses Textuelles Informatisées) que nous avons créé il y a 26 mois [1] et qui regroupe déjà une soixantaine de chercheurs, ingénieurs et enseignants de plusieurs disciplines et de plusieurs régions, avec même quelques antennes lointaines à l’étranger – jusqu’à Vancouver. Dans ce dispositif en réseau multipolaire l’Iresco peut d’autant mieux continuer de jouer son rôle de pivot principal qu’il abrite maintenant en son sein une équipe d’animation à la fois performante et indépendante par rapport aux principaux enjeux intellectuels et économiques de ce nouveau domaine d’innovation méthodologique, équipe dont les membres appartiennent à trois des principaux laboratoires de l’Institut.
Notre projet s’appuie sur plusieurs constats et expériences vécues depuis plusieurs années, et depuis plus de dix ans pour l’un d’entre nous.
Plusieurs interventions d’information et de sensibilisation ont déjà été effectuées par nous depuis trois ans auprès de publics d’étudiants de D.E.A. et de troisième cycle, tant en province qu’en région parisienne, interventions qui ont largement contribué à développer le réseau de relations d’où est issu, par effet boule de neige, le projet ARCATI.
La plupart des logiciels pratiqués en France ont d’abord été conçus pour analyser des corpus « homogènes », composés de textes écrits (littérature, discours publics, etc…). Leur adaptation au « format langagier » spécifique des entretiens non directifs, des discussions à plusieurs voix, ou des conversations, en langage dit « populaire », pose encore de nombreux problèmes peu ou mal résolus.
Par ailleurs, les progrès de l’archivage numérisé et du scannage nous affranchissent des contraintes et déperditions des indexations et codages en mots-clés, et mettent à la disposition d’un public de plus en plus large des corpus « plein texte » de plus en plus importants par la taille. Il en résulte de nouvelles opportunités et un besoin croissant d’appliquer des méthodes d’analyse sociologique (ou, plus simplement, lexicométrique) sur des corpus numérisés de très grande taille : par exemple, pour suivre des dossiers de presse, des débats sociaux dans les médias, des forums sur Internet, etc… Ce qui laisse présager un accroissement de l’intérêt des chercheurs pour les méthodes informatisées d’analyse de ces « discours sociaux », qu’une simple « lecture rapide », en diagonale, ne peut prétendre maîtriser. Mais encore faut-il, dans ces lectures assistées, ne pas sacrifier l’intelligence et la pertinence de l’esprit humain à la rapidité et à la « neutralité axiologique » des procédures électroniques.
Nous avons organisé depuis un an et demi un cycle de présentations critiques de pratiques de recherche « assistées par ordinateur » sur corpus textuels de différents formats et statuts (psycho)sociologiques (2001-2002), à raison d’une séance par mois. Plusieurs membres du réseau ARCATI sont venus ou viendront faire part de leurs expériences de recherche impliquant des analyses de discours assistées soit par des logiciels de type lexicométrique soit par des logiciels de type « dédié », c’est-à-dire conçus par et pour des sociologues et mettant en oeuvre des paradigmes et des problématiques spécifiquement sociologiques (cf. Annexe).
A cette occasion, une bibliographie commentée, accompagnée de quelques « bonnes adresses » et de quelques définitions d’expressions problématiques, a été distribuée aux participants de ce séminaire.
Ce document, et l’organisation de ces séances, peuvent être considérés comme une préfiguration du service de veille et de partage des connaissances que nous pourrions développer, notamment à travers un site Internet, si un soutien logistique minimum nous était accordé (un local, un ordinateur, une logithèque, … et un ingénieur polyvalent pour animer le tout …).
Programme en cours et besoins à court terme
En plus du séminaire, le programme de l’antenne d’Arcati qui s’implante à l’IRESCO consolide une logistique minimale nécessaire aux activités prévues de démonstration en contexte de recherche, de préparation et de suivi dans la maîtrise des logiciels (en renvoyant éventuellement la formation proprement dite vers les instances de Formation Permanente du CNRS et de l’Université), et de confrontation des expériences, notamment par :
– local indépendant
– équipement informatique de base
– logithèque et bibliothèque spécialisées (pour compléter les logiciels, livres et revues qui seront mis à disposition par les initiateurs du projet)
– animation du séminaire,
– création d’un site,
– offre de monitorat pour personnes souhaitant pouvoir tester ces logiciels.
Ces points ont été obtenus ou sont en voie de le devenir grâce notamment à un financement d’EDF, de l’Iresco, ainsi que par la mise à disposition d’une secrétaire de l’Observatoire de la ville (Paris 8) et d’une socio-psychologue (EDF). Celle-ci doit pouvoir nécessairement articuler l’aspect théorique et méthodologique de la mission de veille définie plus loin, et pratiquer personnellement la plupart des outils logiciels correspondants, notamment pour développer des fonctions de consultance et d’assistance permanentes auprès des personnels de recherche de l’Iresco.
Relations déjà établies : Réseau potentiel de partenaires motivés
Notre projet s’appuie sur un vaste réseau de partenaires actuels et potentiels, puisque nos contacts personnels regroupent déjà des collègues motivés (doctorants, enseignants, ingénieurs ou chercheurs), appartenant aux institutions suivantes :
– Universités de Toulouse-le Mirail (Institut d’Etudes Doctorales), de Besançon (Faculté des Lettres et Sciences Humaines), de Tours (Ecole Doctorale en Sciences Sociales), de Rennes, de Paris-VIII (Ecole Doctorale en Sciences Sociales), de Versailles-Saint-Quentin en Yvelines (Séminaire de sémantique discursive au laboratoire Printemps), de Paris-III (ILPGA), et Institut Catholique de Paris,
– Centres de Recherches comme le Centre d’Etude de l’Emploi, l’Institut National de la Langue Française (sites de Nancy, Nice et Lyon), l’I.N.E.D., le Service de Recherches d’Électricité de France (Grets), certains laboratoires de l’EHESS (Centres de Recherches Historiques, de Sociologie Politique et Morale), de l’ENST de Cachan,
– sans parler de quelques “pratiquants” en analyse textuelle, isolés, à l’IRESCO même ou ailleurs, de certains membres du Séminaire d’Analyse de Discours (M.S.H.-IRESCO), auquel nous participons assidûment, et du Département d’Analyse de Textes sur Ordinateur de l’U.Q.A.M. de Montréal.
Projet de Veille « ouverte », sans monopole ni exclusive a priori :
sensibilisation, diffusion et confrontations d’expériences
Parmi ces partenaires figurent soit des utilisateurs de plusieurs logiciels d’analyse textuelle de types différents, soit même certains de leurs concepteurs – ce qui garantit une impartialité a priori dans le choix des conceptions méthodologiques et des outils logiciels soumis à la confrontation, sans monopole ni exclusive a priori.
La plupart de ces contacts ont trouvé leur origine dans un article publié récemment par l’un d’entre nous dans la revue Current Sociology, puis dans le B.M.S. (Bulletin de Méthodologie Sociologique), article qui fait maintenant référence, du moins en France [2].
Parmi les principaux logiciels dont nous connaissons d’ores et déjà les concepteurs et/ou des pratiquants avertis, nous pouvons citer : Lexico, Alceste, Hyperbase, Prospéro, Sato, Tri-Deux/Mots, Tri-thème, Modalisa/Interviews, Le Sphinx/Lexica, Stella, Tropes, Evocation, Lidia, Réseau-Lu, Qualita, Hyperstoria.
Nous nous efforçons de mettre à jour les présupposes théoriques et méthodologiques de chacun de ces logiciels, n’en excluant aucun a priori. L’objectif est de former notre esprit critique, et celui de chaque utilisateur potentiel, pour être en mesure de choisir le/les logiciel(s) qui correspondent le moins mal à nos propres présupposés (ou de s’abstenir d’en pratiquer dans la conjoncture des choix actuels), en toute connaissance de leurs apports spécifiques et de leurs limites – et ceci pour chaque type de recherche et chaque type de corpus en particulier.
C’est pourquoi nous tenons tant à préserver, voire à développer, la diversité des logiciels à soumettre à notre vigilance épistémologique, au-delà d’un simple souci d’exhaustivité de principe. Actuellement, les logiciels recensés représentant l’essentiel des différentes écoles qui font autorité en France dans ce domaine : en organisant des confrontations, nous voulons favoriser le débat sur leurs conceptions et présupposés implicites (par ex. comme nous y avons contribué dans l’article [3]), sur les modèles d’interprétation qu’ils produisent, toujours en référence à des préoccupations et problématiques de recherche préalablement explicitées.
Un gros effort reste à faire pour mieux connaître et évaluer les pratiques de recherche qui correspondent le mieux, ou le moins mal, car les présupposés et les conceptions de base ne se ressemblent guère ici et là [4]. Symétriquement, un gros travail de communication est à initier en direction de l’étranger pour faire connaître et faire critiquer nos spécificités méthodologiques nationales : un site Internet allemand, pourtant bien documenté, ne recense à ce jour que deux logiciels français, là ou nous en dénombrons au moins une dizaine de très significatifs et assez performants !
Dès la phase d’institutionnalisation accomplie, il sera évidemment souhaitable et facilement réalisable de réactiver les coopérations internationales déjà embryonnaires, notamment pour commencer dans les quatre pays étrangers (Etats-Unis, Grande-Bretagne, Allemagne, Canada) qui ont également participé à l’inventaire des logiciels d’Analyse Textuelle pratiqués en recherche sociologique.
Domaines disciplinaires impliqués, en connexion avec nos sciences sociales
Disons tout d’abord que, sans les écarter a priori, nos préoccupations ne se focalisent pas sur les sciences du langage en tant que telles : celles-ci progressent de leur côté, et avec leurs objectifs spécifiques, dans la création d’outils logiciels d’analyse textuelle stricto sensu (par exemple, analyseurs morpho-syntaxiques, voire sémantico-pragmatiques, d’inspiration ou d’orientation plutôt littéraire). Mais il est évident, et c’est déjà le cas, que nous devons rester à l’écoute de ces progrès pour en tirer le meilleur parti possible dans les recherches des autres disciplines de base que sont la sociologie, l’histoire, l’ethnologie sociale, la psychosociologie, l’économie, la démographie, la géographie humaine, la politologie, le droit, etc…, et qui conservent la prééminence dans notre projet (parce que ce sont les disciplines très majoritaires des membres du réseau).
Dans cette perspective, nous devons investir simultanément, avec toute la vigilance épistémologique nécessaire, dans trois domaines disciplinaires réputés “extérieurs” à nos disciplines, bien que complémentaires – en nous efforçant de les articuler de plus en plus étroitement avec les nôtres :
1 – le domaine que nous appellerons ici “sociolinguistique” en donnant à ce terme sa pleine signification pluri-disciplinaire, voire trans-disciplinaire, notamment dans sa version (dominante en France) « sociolinguistique de l’énonciation »,
– c’est-à-dire non pas une science du langage et des pratiques langagières et discursives hors-contexte (ce qui correspondrait au versant linguistique de la combinaison socio – linguistique, ou à une branche spécialisée de la sociologie),
– mais un courant de la sociologie générale, au sens le plus large – englobant les autres sciences sociales dites « particulières » (et couvrant tous domaines, institutions et rapports sociaux) – qui se définit par la prise en compte délibérée des actes langagiers et des pratiques discursives de tous “registres”, de toutes “instances” – avec le sérieux, la modestie et le professionnalisme qu’exige cette matière éminemment riche et respectable, complexe et multidimensionnelle, irréductible à toute analyse exhaustive, que sont des corpus textuels positionnés dans leurs contextes de rapports micro- et macro-sociaux.
2 – le domaine de l’informatique, considéré d’abord, certes, comme un outil puissant et polymorphe au service des problématiques de recherche mais aussi, plus et mieux qu’un simple instrument asservi, comme un levier de formalisation et de mise à l’épreuve des paradigmes de l’énonciation socio-discursive, voire éventuellement comme un lieu privilégié de création de méthodologies originales (par exemple dans la tradition des logiciels “dédiés” dont notre récent inventaire des logiciels conçus et pratiqués en France (cf. note 2 en bas de la page 3) a révélé l’existence embryonnaire).
3 – le domaine de la statistique, principalement descriptive, dans la mesure où certaines méthodes s’intéressent aux structures et variations de répartition des « occurrences » des traits langagiers (formes lexicales, bien entendu, mais aussi tout autre trait langagier pertinent – du point de vue des disciplines qui sont les nôtres).
ANNEXE
Bref historique du Réseau ARCATI
et préambule du projet initial
Le 6 Décembre 1999, une vingtaine de chercheurs et ingénieurs ou enseignants en Sciences Sociales (principalement sociologues et psychosociologues) se réunissaient à l’Iresco, en présence de son directeur Jean-Claude Combessie, pour constituer le Réseau ARCATI (Atelier-Réseau Coopératif pour Analyses Textuelles Informatisées) et débattre de ses modalités d’organisation et de fonctionnement.
Ils représentaient environ 50 collègues qui avaient répondu positivement à un questionnaire lancé par un petit groupe d’initiative pour solliciter l’adhésion à ce projet et recueillir tant les voeux et les besoins (la demande) que les propositions de mise à disposition de savoirs-faires (l’offre).
En effet, les quelque 50 réponses que nous avons déjà reçues à notre questionnaire approuvent toutes ce projet et confirment que nous représentons, tous ensemble, un potentiel très riche et varié de chercheurs, étudiants, enseignants ou ingénieurs en sciences sociales intéressés par la pratique éclairée des logiciels d’analyse textuelle, et favorables au développement d’échanges d’expériences et de confrontations critiques – sans monopole ni exclusive, et dans un esprit plus coopératif que compétitif.
D’ailleurs, sans attendre l’envoi d’un rapport de synthèse des réponses reçues, un document brut a été aussitôt diffusé : c’est en quelque sorte l’annuaire provisoire des premiers membres déclarés de notre réseau. Cet annuaire, qui contient l’ensemble des réponses à 16 questions concernant nos pratiques personnelles (ou nos projets) d’analyse textuelle, a déjà permis à plusieurs collègues de se connaître et de se rencontrer directement, sans mobiliser l’ensemble du réseau en tant que tel.
En effet, la principale utilité de cet annuaire provisoire est évidemment de susciter ces contacts directs et immédiats entre collègues qui se découvrent des thèmes ou domaines de recherche, ou des corpus textuels, ou des outils logiciels, ou des orientations théorico-méthodologiques, semblables ou complémentaires : ceci, sans préjuger des formes plus collectives d’organisation, voire de formation et de discussion, que nous serons en mesure de décider ensemble dès qu’une reconnaissance institutionnelle nous sera accordée.
Depuis un an environ, l’équipe d’animation de l’ « antenne Iresco » du réseau ARCATI s’est étoffée, en intégrant des chercheurs ou documentalistes de plusieurs laboratoires de l’Institut, à savoir : le CERSES, le GERS (ex. Gedisst) et le GRASS
Notre démarche procède du constat suivant, qui constituait le préambule du projet initial :
Nos disciplines des sciences humaines et sociales font nécessairement appel, parmi les “faits” et phénomènes qu’elles analysent, à des pratiques discursives et à des “matériaux langagiers”.
Quels que soient le statut théorique et l’importance accordés à ces phénomènes dans nos problématiques de recherche, en liaison avec des positions épistémo-idéologiques plus ou moins explicites (entre matérialismes et idéalismes, entre positivismes et subjectivismes), il s’est avéré qu’un consensus s’établit aisément sur des propositions concernant l’objectif général, les disciplines scientifiques impliquées (et leurs apports dans le projet pluri- ou trans-disciplinaire), et les perspectives programmatiques.
Sans pour autant nous opposer aux pratiques dominantes dites « quantitatives », sinon pour contester leur prétention hégémonique dans certains secteurs de nos disciplines, nous sommes persuadés qu’il y a tout intérêt à développer concurremment d’autres méthodologies, mieux adaptées aux spécificités des expressions langagières, discursives (disons textuelles) des phénomènes sociaux.
Et nous proposons de donner a priori une définition très extensive de ces expressions textuelles, quitte à les spécifier ensuite en divers champs d’application, tels que :
– notes de terrain et carnets d’observation directe (= comptes-rendus rédigés par les enquêteurs eux-mêmes, ou leurs informateurs) ;
– paroles, récits et discours prononcés dans des conversations “spontanées”, par des organisations ou au nom d’institutions ou dans les médias (y compris toutes formes de communication graphique et iconique), et toutes sortes de productions culturelles écrites et orales ;
– paroles, récits et discours provoqués et enregistrés pour les besoins spécifiques de la recherche et par un dispositif spécifique de “recueil” de parole, et d’écoute (ce qui est un type particulier du processus général de “co-énonciation”);
– enregistrements numérisés de gros corpus textuels (littérature, presse écrite, banques de données) et ,de plus en plus, accès en ligne sur Internet à de nouveaux modes de communication « transpersonnelle », semi-virtuelle, qui pose de nouveaux problèmes quant au statut et au rôle de ces échanges langagiers particuliers dans la dynamique des rapports sociaux.
Historique des programmes de notre séminaire (à l’Iresco)
de sensibilisation aux pratiques d’ Analyses Textuelles Informatisées
Présentation critique de méthodes d’analyse textuelle
faisant appel à des logiciels pratiqués en sciences sociales.
Février 2001 – Mai 2001
Ce premier cycle (assuré dans le cadre de l’IRESCO par des membres du réseau ARCATI, Atelier-Réseau Coopératif pour Analyses Textuelles Informatisées) comprend trois séances de présentations en contexte de recherches faisant appel à quatre logiciels différents – et une séance, plus théorique et épistémologique, consacrée aux prérequis et présupposés et à quelques questions fondamentales de vocabulaire (par ex. Analyses de Quoi ?).
Il pourra être suivi d’autres séances consacrées à d’autres logiciels.
§ 6 février 2001, 9h30 – 12h : A propos de Tropes, logiciel d’analyse de données discursives, (Anne Plissonneau, chercheure EDF-GDF) [salle 221]
§ 6 mars 2001, 9h30 – 12h : Hyperbase et Alceste, logiciels de lexicométrie statistique comme outils complémentaires des approches thématiques classiques (Régine Scelles, Professeur à l’université de Tours) [salle 255]
§ 3 avril 2001, 9h30 – 12 h : Analyse (de, du, des) discours et analyses textuelles : pré-requis et présupposés (Jacques Jenny) [salle 221]
§ 15 mai 2001, 9h30 – 12 h : A propos de Prospéro, (Programme de Sociologie Pragmatique, Expérimentale et Réflexive sur Ordinateur) pour l’analyse de dossiers complexes dans le cadre de débats publics (Didier Torny, EHESS et Roberta Shapiro, chercheure LAUA, et M.C. Bureau, chercheure CEE) [salle 255]
Les séances ont eu lieu à l’IRESCO
59-61, rue Pouchet 75017 Paris.
Public concerné : tous personnels de recherche de l’IRESCO, étudiants de DEA et doctorants
Contact : Yves Lochard (lochard@iresco.fr)
Nota : à l’origine, les séances du 6 février et du 3 avril étaient programmées dans l’ordre inverse. C’est à la suite d’une banale entorse, survenue au dernier moment (début février), que J. Jenny a demandé à A. Plissonneau de bien vouloir (et elle a pu le faire) intervenir à sa place pour la première séance
Dans ce séminaire informel, l’accent est mis délibérément sur les problèmes proprement méthodologiques, « en amont » de toute considération informatique. Autrement dit, les logiciels ne sont considérés a priori que comme des « assistants » pour l’analyse sociologique, notamment lorsque celle-ci porte sur des « discours sociaux » et rend compte de la circulation de ces discours dans les différentes sphères, dites privées et publiques, de nos sociétés. Une séance a d’ailleurs été consacrée uniquement aux présupposés de toute méthode d’analyse de corpus textuels, informatisée ou non, et aux prérequis nécessaires, notamment en sociolinguistique et en statistique textuelle.
Décembre 2001 – Mai 2002
Dans la continuité des séances réalisées en 2001, nous vous confirmons notre séminaire de présentation critique et comparative d’applications de logiciels d’analyses textuelles informatisées.
Objet du séminaire :
Présentation critique de méthodes d’analyses textuelles faisant appel à des logiciels pratiqués en sciences sociales.
Dans ce séminaire, l’accent est mis délibérément sur les problèmes proprement méthodologiques, en amont de toute considération informatique.
Autrement dit, les logiciels ne sont considérés a priori que comme des “assistants” pour l’analyse sociologique, notamment lorsque celle-ci porte sur des “discours sociaux” et rend compte de la circulation de ces discours dans les différentes sphères, dites privées et publiques, de nos sociétés.
Une séance sera d’ailleurs consacrée, comme l’an passé, aux présupposés de toute méthode d’analyse de corpus textuels, informatisée ou non, et aux pré requis nécessaires, notamment en sociolinguistique et en statistique textuelle.
Au cours de ces six séances, nous proposons une diversité de registres et formats des discours analysés, de même que des exposés sur les démarches d’études et les méthodes employées.
Public concerné:
Toute personne intéressée, chargé de recherche, chercheur, enseignants, étudiants de DEA et doctorants, professionnels en sciences sociales
Les séances ont eu lieu à l’IRESCO, 59-61, rue Pouchet 75017 Paris – de 9h.30 à 12h.30
Mardi 4 décembre 2001 :
Séance d’introduction : « Une présentation de repères théoriques et pratiques, préalables à l’usage de logiciels d’aide au traitement et à l’analyse de données discursives ».
Anne PLISSONNEAU, sociologue / chercheure
Marc GLADY, Chercheur, Enseignant à l’Université Dauphine – Paris 9 au Laboratoire CERSO.
Mardi 8 Janvier 2002 :
« Recherche qualitative et communication par Internet »
Méthodes d’enquêtes par Internet
Bernard REBER, Chercheur. Centre de Recherche Sens, Ethique, Société (CNRS), Enseignant ENSMP et CELSA.
« Les études en ligne : Etat de l’art et enjeux méthodologiques ».
Claire BROSSAUD, sociologue.
Mardi 5 Février 2002 :
« Traitement de questions ouvertes ».Démarche, usage des logiciels Alceste et Tropes »
Mathieu BRUGIDOU, Chercheur, Grets EDF.
Mardi 5 Mars 2002 :
« Débats sur l’immigration : approches d’un espace argumentatif hétérogène
assistées par les logiciels Lexico3, WEBLEX et Alceste ».
Pierre FIALA, maître de conférence, Sciences du Langage, UFR Lettres, Université Paris 12 Val de Marne
Gabrielle VARRO, sociologue, chercheure au laboratoire PRINTEMPS, St-Quentin-en-Yvelines
Mardi 30 Avril 2002 :
« Recherches réalisées à l’aide de logiciels étrangers : le logiciel Qualita, le logiciel Atlas-Ti.
Analyses de corpus textuels assistées par différents logiciels étrangers de type “CAQDAS” classique : analyses de contenu thématique ou socio-sémantique, aide à l’indexation libre, catégorisations et typologies d’énoncés ‘libres’ ou de forum Intranet, de réponses à des questions, voire de discussions de groupe »
Carme ALEMANY, Sociologue au centre d’Etudes Socioéconomiques et au Centre de Women Studies de Barcelone
Dominique LE ROUX, linguiste, Grets, Edf.
Mardi 28 Mai 2002 :
« Logique des actes civils ».
Patrick PHARO, directeur de recherche au CNRS, Centre de Recherche, Sens, Ethique, Société.
« Techniques d’analyses d’affaires et de controverses »
Francis CHATEAURAYNAUD, enseignant à l’Ecole des Hautes Etudes en Sciences Sociales
Octobre 2002 – Mai 2003
Même texte de présentation des objectifs, des publics concernés et du lieu que l’année antérieure
Jeudi 17 Octobre 2002 (salle 221) :
– Les logiciels d’analyse textuelle pour quels corpus et dans quel objectif ? réflexions à partir de la méthode ALCESTE dans un travail d’analyse de discours : Britta LANGHANS, sociolinguiste (Aix-en-Provence).
– Classes d’énoncés, dimensions modales et catégories sociales : application d’ALCESTE à dix neuf entretiens sur les armoires à pharmacie familiales : Paul WALD, psychosociologue (laboratoire Printemps, Université de Saint-Quentin)
Jeudi 14 Novembre 2002 (salle 124) :
– L’analyse exploratoire des données d’enquêtes de terrain (quantitatives et qualitatives) à l’aide du logiciel MODALISA : expérience d’un chercheur-enseignant :
– Ridha ENNAFA, Maître de conférence en sciences de l’éducation, Université de Paris-8
Jeudi 12 Décembre 2002 (salle 221) :
– Analyse de discours politiques à l’aide de logiciels :
– Mathieu BRUGIDOU, chercheur au Grets (EDF) et Dominique LABBE, chercheur au CERAT – IEP, Grenoble, concepteur (avec Cyril Labbé) du logiciel Lexicométrie.
Jeudi 16 Janvier 2003 (salle 124) :
– Constitution de corpus de données hétérogènes : préalables et questions méthodologiques :
– Bernard REBER, philosophe, chercheur au CERSES : enjeux théoriques et défis conceptuels du nouveau domaine de recherche transdisciplinaire sur les STIC (Sciences et Techniques de l’Information et de la Communication)
– Francis CHATEAURAYNAUD, sociologue, chercheur à l’EHESS, co-auteur de l’ouvrage «les sombres précurseurs, une sociologie pragmatique de l’alerte et du risque», 1999, concepteur du logiciel Prospero (avec J.P. Charriau).
–
Jeudi 13 Mars 2003 (salle 124) :
– Archives «contemporaines» et Archivage de «données orales» : problèmes déontologiques et politiques, épistémologiques et théoriques, méthodologiques et techniques :
– Dominique LE ROUX, linguiste au GRETS (EDF – R&D), co-responsable de la base d’entretiens archivés VERBATIM
– Sonia COMBE, historienne, Conservateur d’Etat, responsable du département des archives et de la recherche de la BDCI (Université de Paris-10), auteure du livre «Archives interdites. L’histoire confisquée».
Jeudi 15 Mai 2003 (salle 124) :
– Le traitement de la narrativité :
– Claire BROSSAUD, sociologue, chercheure associée au GRASS : La narrativité, un outil d’objectivation des récits de vie en sciences sociales.
– Eddie SOULIER, enseignant chercheur, Laboratoire Tech-cico (Technologie de la Coopération pour l’Innovation et le Changement social), créateur du logiciel Hyperstoria, Troyes : L’analyse narrative avec Hyperstoria.
Novembre 2003 – Mai 2004
Même texte de présentation des objectifs, des publics concernés et du lieu que l’année antérieure
Jeudi 20 novembre 2003 : « Méthode et stratégie d’analyse des questions ouvertes en sociologie électorale »
Mathieu Brugidou (CIDSP-EDF R&D)et Nadine Mandran (CIDSP)
* * * un texte résumé de Mathieu Brugidou, avec bibliographie, a été envoyé en fichier joint * * *
Jeudi 15 Janvier 2004 : « BELUGA : un outil pour l’analyse dynamique des connaissances de la littérature scientifique d’un domaine. Première application au cas des maladies à prions ».
Nicolas Turenne (BIA, INRA) et Marc Barbier, sociologue (SAD, INRA)
Jeudi 18 Mars 2004 : « Quelques enjeux théoriques autour de la notion d’hypertexte »
avec : Alain Lelu, Professeur à l’Université de Franche-Comté, INRA / Unité Mathématiques, Informatique Génome
Philippe Schepens, LASELDI / Université de Franche-Comté
– exemples d’applications réalisées avec le logiciel NeuroNav :
– génération d’hypertexte de référence à partir d’articles scientifiques
– analyse de discours de patients paranoïaques et schizophrènes.
Jeudi 13 Mai 2004 : « Souci de symétrie dans les rapports entre analyses des données langagières et sociologies »
Patrick Renaud, socio-linguiste, directeur de l’ILPGA (Paris – 3) et Jacques Jenny, sociologue, CNRS.
_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
Arcati organise pour le Vendredi 27 janvier 2006 à l’Iresco une Journée de réflexion-bilan sur
Interprétations sociologiques et analyses textuelles informatisées
– retour sur cinq années d’expérience –
Contacts : Claire Brossaud (claire.brossaud@noos.fr)
Mathieu Brugidou (mathieu.brugidou@edf.fr)
Marc Glady (marc.glady@dauphine.fr)
Bernard Reber (reber@iresco.fr)
Karl Van Meter (vanmeter@iresco.fr)
_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
[1] On trouvera ci-joint, en Annexe, un bref historique de la création de ce Réseau.
[2] Jenny Jacques. Méthodes et pratiques formalisées d’analyse de contenu et de discours dans la recherche sociologique française contemporaine. Etat des lieux et essai de classification. Current Sociology (vol. 4, N° 3, Hiver 1996), Trend Report consacré à “Qualitative Sociology and Computer Programs : Advent and Diffusion of CAQDAS” (sous la dir. de Wilma Mangabeira), pp. 279-290.
cf. aussi : Bulletin de Méthodologie Sociologique (B.M.S.), n° 54, Mars 1997, p.64-112.
[3] JENNY Jacques. Pour engager un débat avec Max Reinert, à propos de la réponse «Alceste» à l’ «objet» d’une analyse de discours de type statistique. Langage et Société, n° 90, Décembre 1999, p. 73-85.
[4] là où, dans les pays anglo-saxons, on ne parle que de « C.A.Q.D.A.S. » (Computer Assisted Qualitative Data Analysis Software) et d’analyses « qualitatives », ici, en France, on pratique des analyses de discours, ou des analyses textuelles, au point qu’on pourrait parler d’exception culturelle française à propos de ces pratiques, comme en d’autres domaines.