sorbonne universite

Transnum

Penser les transformations du / par le numérique

L’édition 2017 du programme Transnum a permis l’organisation et l’animation par Pauline Brouard et Guillaume Heuguet (doctorants au GRIPIC), sur une suggestion de Joëlle Le Marec, d’un séminaire réservé aux doctorants de Sorbonne Université. 

Le séminaire s’est construit à partir d’un appel à contribution sous le titre Faire avec le numérique dans la recherche : matériaux et milieux, du repérage des recherches en cours en lien potentiel à travers une recherche par mots-clefs sur le fichier national des thèses, à travers des visites des laboratoires de Sorbonne Université et les relations d’interconnaissances (logique boule de neige) à partir des premiers intervenants, offrant un aperçu forcément partiel de la recherche doctorale intéressée par ces thématiques.

Le séminaire a évolué entre questions de recherche et de méthodologie, formats d’atelier / auto-formation et partage d’expériences des relations entre le dedans et le dehors de l’Université. Il a permis de croiser non seulement les objets concrets et scientifiques mais les disciplines, les parcours et les postures des doctorants. 

Il aura été l’occasion d’un partage des réflexions sur des enjeux et des méthodes : place de la quantification et des probabilités dans la médecine, étude de controverses, analyse de la presse et des genres de discours, bricolage dans le travail de corpus et de terrain. 

Il aussi révélé des conditions partagées en lien avec la thématique numérique, occasionnant des discussions sur la mise à l’agenda académique de thématiques liées aux innovations économiques, le rapport aux opportunités de corpus massifs et aux commandes de développement d’outils, ou encore la manière de vivre les collectifs, les lieux et les espaces de la recherche selon qu’on travaille sur des archives, avec des équipes interdisciplinaire, ou entre l’Université et des milieux artistiques et militants.

Ces discussions ont bénéficié de l’existence d’un espace autonome qu’a constitué un séminaire de doctorants à destination de doctorants.

Les présentations qui permettaient d’initier les séances ont été documentées (voir le blog Hypothèses dédié : semidocnum).

Les activités du séminaire ont fait l’objet de communications lors des colloques Cultures de l’enquête et Transnum : penser le numérique comme transformation. Le texte ci-dessous est un extrait des notes qui ont servi de support à ces communications.

Une hétérogénéité des objets et des problématiques

Les doctorants invités dans le cadre du séminaire nous invitent à repenser « le numérique » par la liste des matériaux et terrains d’étude concrets : des archives de journaux de médecine du XVIIIème siècle ; un logiciel d’analyse de réseaux sociaux et de controverses ; un mot-clef circulant dans les textes, l’ « open », comme dans « open access » ; les textes historiques sur les arts de mémoires et leur formes sur le web ; des tas de « tweets » et des conversations en ligne et hors ligne avec des personnes qui critiquent l’usage des vaccins ; des pages et des vidéos YouTube en rapport avec le goût pour la littérature ; des textes juridiques et des discussions de chercheur en colloque sur les données personnelles ; des corpus de trois grands journaux numérisés sur plusieurs siècles ; un corpus de 300 ouvrages de critique littéraire faisant intervenir un discours de rationalité scientifique.

On voit combien il est à ce stade difficile de dégager une cohérence et de concevoir le numérique dans la recherche doctorale comme un concept transversal. Le caractère hétéroclite des objets est à la mesure de la diversité des problématiques : on pourrait à la limite aller jusqu’à dire qu’il n’y a pas de recherche « sur le numérique » puisque chaque problématique se situe à un niveau de généralité qui n’est pas celui de l’internet, de l’informatique ou du calcul : les études concernent des mouvements sociaux, des pratiques culturelles, des technologies intellectuelles comme les arts de mémoire, des logiciels comme GEPHY, des sites comme Facebook, les normes juridiques, l’économie de l’édition scientifique, etc. Si tous les objets ont une résonance sociale ou scientifique assez large, ils sont toujours reliés à des objets traditionnels de la sociologie, des SIC, de la philosophie, de la littérature (même dans le cas d’une métamorphoses des textes en “données”), il y a plus un jeu sur les marges des corpus et des terrains, et sur les manières de les interroger, qu’il n’y a d’objets nouveaux ou spectaculairement “hybrides”.

Un cas particulier : l’analyse de corpus numérisés

L’exception relative correspond à la dernière séance consacré à des projets de numérisation de corpus  avec Pierre-Carl Langlais et Marine Riguet, qui participent tous les deux à des projets de « numérisation de corpus » (Numapresse / OBVIL). Pour Pierre-Carl Langlais, qui numérise des corpus de presse du XIXème siècle, objet privilégié des Sciences de l’information et de la communication, prendre des corpus de très grande quantité les soumettre à des logiques de tri automatique permet de faire émerger des questions originales, et la lecture distante permet de faire apparaître des nouvelles choses : circulation internationale des nouvelles, remise en cause des parti-pris sur l’histoire des femmes écrivains (disparition de la romancière plutôt que son avènement), une définition composite et dynamique du genre journalistique (liée à la périodicité, à l’espace sur la page, à l’homogénéité lexicale, aux signatures). Pour Marine Riguet, il faut plutôt séparer la question de l’intérêt des traitement statistiques automatisé de celui des corpus massifs et utiliser le traitement statistique pour accompagner une lecture rapprochée de corpus de taille moyenne (350 ouvrages).

Au-delà de ces différences, ces deux recherches se rapprochent sur plusieurs aspects : l’usage d’outils statistiques et informatiques sur des corpus d’humanités vient d’une décision personnelle qui se fait avant tout par des rencontres ou des expérimentations plutôt que par une injonction ou des programmes des labos, même s’il y a affiliation à des projets collectifs en cours de route ; les outils utilisés sont construits voire « bricolés » ad hoc soit pour le chercheur lui-même, soit en discussion avec des ingénieurs de recherche (Marine Riguet), soit par le passage de la main à la main de petites fonctions logicielles et sans cesse réajustés en fonction des problématiques et des intuitions des chercheurs, ils ont un rôle heuristique, de soutien cognitif à une démarche réflexive et soucieuse de ne pas perdre de vue les choix qui ont présidé à leur configuration. Les outils statistiques peuvent suggérer des petites questions locales ou inviter à penser différemment les catégories de la formation d’un genre de discours par exemple, en invitant à réfléchir à la façon de calculer  « centralité » d’un auteur dans un corpus, selon le « pur nombre » de citations ou sa « position médiatrice » vis-à-vis de différents réseaux d’auteurs.

Les enjeux se superposent : proposer des corpus numérisés pour d’autre chercheurs, interroger les limites des catégories sur les genres de discours (qu’est-ce qu’un genre journalistique ? qu’est-ce que la critique littéraire ?), trouver des nouveaux moyens de répondre à des questions traditionnelles, ou profiter des corpus déjà numérisés et de la plasticité des logiciels pour “tester” des petites hypothèses nouvelles  : « pourquoi pas voir ce que ça donnerait de… ». Les deux recherches “outillées” partagent en outre un intérêt fort pour les questions de formation discursives et de généricité.

Cela peut donner des positionnements hybrides : une réflexion pointue sur les formations discursives, dans la lignée de Foucault, qui peut s’articuler avec des soucis très opératoires exprimés en termes d’efficacité… Une oscillation ou articulation entre des questions qu’on aurait pu penser incompatibles.

Sans rentrer dans les détails de la discussion assez riche de ce jour-là, on peut dire que ces chercheurs nous donnent une figure inversée de la pratique des outils d’analyse de réseau comme GEPHI analysé par Jean-Edouard Bigot dans son statut d’outil qui comporte une théorie scientifique « embarquée » et qui correspond à une standardisation du regard scientifique au travers de différentes disciplines.

En effet, sur la question de la visualisation de données en particulier des graphes, pour Jean-Edouard Bigot, un outil comme GEPHY comprend une épistémologie intégrée qui en voyageant de la biologie vers l’analyse de réseaux sociaux, et en étant utilisé de manière routinière, finit par créer une compréhension simpliste des phénomènes sociaux. Pascal Bué a également remarqué que du point de vue de la pragmatique de la recherche, ces logiciels était souvent une manière de se conforter dans une compétence de recherche, via la production rapide de résultats communicables, et dans la mise en scène de cette compétence comme expertise, via les connotations d’objectivité en même temps que la séduction de ces représentations visuelles. Or dans les présentations de Pierre-Carl Langlais et de Marine Riguet, la présentation de graphes était toujours assorti d’un commentaire sur les choix qui ont conduit à en isoler les catégories et les paramètres, l’accent était mis sur leur rôle d’appui dans la construction de la réflexion, et la présentation de ce type de diapositive était à chaque fois accompagné de commentaires qui invitait à de ne pas les lire comme une « vue » plus objective sur les phénomènes en question mais comme une manière de les penser différemment.

Des tendances dans le positionnement vis-à-vis de conditions partagées

Malgré l’absence d’unité des objets de recherche et des problématiques dans les recherches des doctorants qui se sont saisies l’invitation à venir parler autour du travail concret sur ou avec le « numérique », on voit se dégager certaines tendances :

-     Les conditions de la recherche retournées en problématiques variées. Cela les conduit donc à des recherches sur les pratiques et imaginaires scientifiques et la façon ils sont affectées par les politiques de l’innovation, la statistique, des outils standardisés, de l’ouverture des documents et les changements dans la temporalité et la visibilité des processus de production des savoirs, ces changements étant susceptible d’affecter la gestion et la circulation des données  : Mathieu Corteel, Jean-Edouard Bigot, Julien Rossi, Celya Gruson Daniel.

-     Les changements dans les formats documentaires et les médias représentent un point de tension et un défi pour une recherche qui vise autre chose, comme Marine Siguier (sur la critique littéraire en ligne) et Paul Escande Guiet (sur les mouvements anti vaccins) qui se demandent si il est encore possible d’isoler et de délimiter des communautés de discours ou de pratiques quand les textes circulent et que leurs conditions institutionnelles sont floues, ou Donatien Aubert (sur les représentations du savoir)

-     Des méthodologies statistiques et des outils informatiques sont adoptées pour traiter des corpus, les recherches s’insèrent dans des projets de numérisation de corpus soutenus à des échelles institutionnelles plus « hautes » que le laboratoire, ces corpus étant alors analysé à partir de problématiques qui peuvent relever d’un intérêt de recherche personnel mais aussi à partir de l’opportunité de produire des résultats à différents niveaux d’analyse ou pour différentes communautés de recherche (« indexer pour donner à lire à d’autres », selon la formule d’Yves Jeanneret) : il y a un côté ludique et opportuniste, sans que ce mot soit ici péjoratif, qui définit encore un style à part entière de désir de recherche. C’est ici que le terme de « numérique » est le plus volontiers revendiqué, pour inclure l’originalité des « humanités numériques » et faire apparaître une logique à la fois instrumentale et expérimentale là où ne l’attendait pas forcément.

Le séminaire nous conduit à partager des expériences et des savoirs qui sont liés aux interstices du travail de thèse, qui ne sont pas nécessairement des résultats ou des méthodes mais une sensibilité à tout ce qui conditionne la recherche sans nécessairement en faire partie. 

Il nous fait voir aussi que la jeune recherche en relation avec la thématique « numérique » ne se réduit pas aux humanités numériques, ou des travaux qui tournent autour de la modélisation, mais concernent un groupe plus large de chercheurs qui s’intéressent à la portée des calculs, au partage des outils dans les sciences humaines et dans les sciences physiques et mathématiques, au rapport de la recherche avec les mondes de l’innovation, avec les plateformes de publication, avec les associations d’ « open access ».

Certains modélisent et codent toute la journée, d’autres alternent entre construction d’outils et lecture fine des corpus, d’autres réfléchissent sur les injonctions à produire de la donnée en médecine ou la séduction des logiciels d’analyse de réseaux, d’autres encore voudraient fondre la recherche dans des activités de publication et de socialisation qui sont celles des arts techniques ou de l’activisme.

En écho aux réflexions dégagées par l’axe épistémologie de Transnum, on y trouve autant des démarches de production de savoirs inspirés par l’horizon du calcul, de la combinatoire, de la production de modèles du réel, de l’intégration entre différents domaines sociaux via les outils, que des recherches qui cherchent à évaluer les écarts irréductibles qui persistent entre les modélisations, ou la spécificité de valeurs et de représentations du monde particulières, notamment en faisant proliférer les imaginaires historiques et scientifiques souvent confondus dans le terme de « numérique », des mathématiques en médecine à différentes variantes de cybernétique, en passant par l’idéal de libre circulation des savoirs.

Un espace pour interroger la composition entre dimensions instrumentales et expérimentales de la recherche

Parmi cet ensemble de recherches, de postures et d’objectifs, entre la recherche « avec » les outils et le calcul et « sur » leur rôle dans la recherche et dans la société, c’est à la production de grands corpus, de modèles et d’outils transférables qu’on va voir attribuer le plus facilement l’adjectif « numérique ». Si l’on prend un peu de recul sur notre propre travail d’organisation, le séminaire est d’ailleurs lui-même embarqué dans ce mouvement général qui constitue à produire l’idée qu’il peut y avoir quelque chose comme une « numéricité » des recherches, qui leur donne une valeur institutionnelle et sociale spécifique.

L’intérêt du séminaire, dès lors, plutôt que de se positionner avec ou contre cet effet de labellisation certains invités n’hésitant pas à dire leur méfiance face à ce mot qui crée du flou voire des problèmes scientifiques – était sa possibilité de ne pas avoir à choisir et d’avoir l’occasion d’être un espace de discussion entre les objectifs de modélisation et les objectifs de critique, entre les postures de contribution à la circulation des connaissances et les postures d’attention à la façon dont la circulation des outils ou des discours écrasent parfois les différences et les singularités… Ces deux tendances, entre le goût de l’efficacité, de la diffusion, de l’interdiscipline d’un côté, et le souci de la nuance, de la consolidation théorique, des singularités de l’autre, étant d’ailleurs moins réparties entre des chercheurs différents qu’elles ne cohabitaient et se négociaient dans le travail de chacun.

On voit que penser comment on « fait avec le numérique », c’est se saisir des discours de rupture, d’un décloisonnement corpus ou d’outils dont on est parfois peu familiers pour se donner l’occasion d’accentuer les questions d’épistémologie, de méthodes, de situations de la recherche, de zones frontières entre les disciplines. On peut espérer que le séminaire continue d’accueillir et d’animer un espace où l’on se donne le droit de penser ensemble ces tensions.

Pauline Brouard et Guillaume Heuguet.

envelope-ofacebook-official