sorbonne universite

Transnum

Penser les transformations du / par le numérique

L’écriture numérique, c’est l’écriture en milieu numérique (voir entrée milieu numérique). A titre d’exemples de pratiques d’écriture numérique, on peut mentionner : écrire un courrier électronique, préparer un diaporama, rédiger un texte à plusieurs et en mode synchrone grâce à un outil collaboratif en ligne, poster un message sur un réseau social… 

L’écriture numérique est-elle une nouvelle déclinaison d’une réalité bien connue – l’écriture – ou une refondation à penser et à mettre en œuvre ?  L’enjeu est de comprendre ce que fait le numérique à la notion d’écriture, et ce que l’écriture comme pratique permet de comprendre des potentialités et des limites du numérique.

Dans le cadre du projet PRECIP sur l’enseignement de l’écriture numérique (http://precip.fr), nous posons comme hypothèse que l’instrumentation de l’écriture par les technologies numériques transforme les pratiques d’écriture (Crozat, Bachimont, Cailleau, Bouchardon, 2011). Les caractéristiques de l’écriture nous semblent ainsi devoir être réinterrogées dès lors que son support d’inscription devient numérique.

A la suite de Jack Goody (Goody, 2007), nous envisageons l’écriture comme une technologie qui, en inscrivant un message sur un support, lui confère un caractère spatial et une pérennité. Ces caractéristiques techniques ouvrent de nouvelles possibilités cognitives qui transforment non seulement nos capacités intellectuelles mais plus largement notre mode d’être au monde. Autrement dit, l’écriture est une technologie de l’intellect qualifiable de « raison graphique » de par sa relation au support. La généralisation contemporaine de l’usage des supports numériques comme supports d’inscription pose la question de leurs conséquences sur nos possibilités cognitives et sociétales. Bruno Bachimont propose la notion de « raison computationnelle » pour caractériser les transformations induites par le support numérique en tant qu’il est un support dynamique, calculable (Bachimont, 2010) qui ouvre à son tour de nouveaux possibles. 

Dans cette perspective, la notion d’« écriture numérique » est une expression elliptique pour désigner celle d’« écriture en milieu numérique » considérée comme une technologie de l’intellect relevant d’une « raison computationnelle ». 

L’enjeu d’une telle approche est de prendre en considération l’espace des possibles et des contraintes liées au support numérique pour être en mesure de comprendre en quoi et comment ce dernier conditionne sans les déterminer nos pratiques d’écriture en milieu numérique. En effet, toute écriture numérique passe par la médiation d’un outil d’écriture qui est lui-même une inscription sur un support numérique. En d’autres termes, tout logiciel d’écriture a été écrit (cf. la notion d architexte de Jeanneret et Souchier, 1999) et cette écriture relève de choix réalisés dans l’espace des possibles et des contraintes du support numérique. Ces choix ont donc des conséquences sur l’exercice de la « raison computationnelle ». De manière indissociable, en tant que la relation à la technique relève d’une relation de co-constitution, les pratiques d’écriture en milieu numérique influent sur les dispositifs d’écriture qui les outillent. 

Ainsi, étudier l’écriture numérique consiste selon nous à rendre visible ce qui la conditionne techniquement afin de permettre des pratiques d’écriture éclairées et une analyse de ces dernières qui intègre le fait qu’elles soient techniquement constituées sans pour autant être déterminées. Cet éclairage doit en effet également permettre de montrer comment en retour les pratiques peuvent influer ou encore interroger les choix qui sont effectués parmi les possibles techniques. La littérature numérique constitue un moyen privilégié pour ce faire.

Références :  

- Bachimont, B. (2010). Le sens de la technique : le numérique et le calcul. Paris: Editions Les Belles Lettres, collection « encre marine ».

- Crozat, S., Bachimont, B., Cailleau, I., Bouchardon, S., Gaillard, L. (2011). « Éléments pour une théorie opérationnelle de l’écriture numérique », Document numérique, vol. 14/32011, Paris : Hermès Lavoisier, 933, 

https://www.researchgate.net/publication/270159558_Crozat_S_Bachimont_B_Cailleau_I_Bouchardon_S_Gaillard_L_2011_Elements_pour_une_theorie_operationnelle_de_l’ecriture_numerique_Document_numerique_vol_143-2011_Paris_Hermes_Lavoisier_9-33

- Goody, J. (2007). Pouvoirs et savoirs de l’écrit. Trad. de l’anglais par Claire Maniez ; coordination par Jean-Marie Privat, Paris : La Dispute.

- Jeanneret, Y. et Souchier, E. (1999). « Pour une poétique de l’écrit d’écran », Xoana, images et sciences sociales6/7, éd. J.-M. Place, 97107.

La notion d’éthique by design n’est pas un concept académique, et pourtant le « by design » est une locution qui devient de plus en plus usitée en particulier dans le domaine du numérique : privacy by design, attention by design, ecology by design, security by design sont autant d’expressions qui imprègnent les discours institutionnels, industriels, voire académiques. Mais d’où l’éthique by design tire-t-elle sa légitimité en tant que telle, et quelle est sa pertinence ? Doit-on y voir un effet de mode, ou bien ce concept est-il représentatif d’un paradigme en train de se structurer autour d’une reconfiguration des pratiques éthiques du design, en particulier dans le contexte numérique ? (Fischer, 2019)

L’éthique by design est communément assimilée à une éthique de la conception. Mais elle ne s’y réduit pas. Une approche linguistique du « by design » est nécessaire, afin de démontrer la multiplicité des approches éthiques possibles en contexte numérique, ainsi qu’une généalogie de la rencontre entre le design, l’éthique et le numérique pour comprendre tous les ressorts possibles de cette expression. Par « by design », nous pouvons en effet entendre trois traductions possibles : « par intention », « par conception », et « par médiation ».

C’est peut-être Victor Papanek, designer austro-américain du 20ème siècle qui le premier mentionna l’idée d’une éthique by design sans la formuler comme telle. Victor Papanek fait partie des grandes figures qui ont permis de théoriser le design et ses implications socio-politiques, notamment grâce à son ouvrage Design pour un monde réel, édité en 1971. Lorsqu’il affirme que le « discernement social et moral [du designer] doit s’exercer bien avant qu’il ne commence à créer » (Papanek, 1971, p. 80), il évoque l’importance de la pensée éthique en amont de la conception. Il inscrit ainsi la « responsabilité morale et sociale du designer » (Papanek, 1971, p.78) dans une temporalité bien définie. La responsabilité du designer commence par son « jugement » du projet, et donc en quelque sorte, son intention, avant tout acte technique, « car il doit porter un jugement, un jugement a priori, pour décider si le produit qu’il doit concevoir, ou re-concevoir, mérite réellement son attention. En d’autres termes, est-ce que sa création contribue ou non au bien-être social ?» (Papanek, 1971, p.80). 

La première approche possible de l’éthique by design, reposerait donc, de premier abord, sur son caractère intentionnel et anthropocentré. Traduit littéralement de l’anglais, la locution « by design » renvoie en effet à « ce qui est intentionnel », ce qui est « à dessein ».  Cette traduction appliquée à l’éthique, nous amène à considérer l’éthique selon deux approches focalisées sur le sujet rationnel et à ses actions : la déontologie et le conséquentialisme. Sur ce point, il est intéressant de constater que l’une des premières occurrences académiques de l’expression « ethics by design » en tant que telle, vient de la sociologie des organisations. Elle se trouve dans l’ouvrage éponyme de Stephanie L. Moore, professeur à l’Université de Virginie, publié en 2010. La thèse qui y est défendue est qu’il est nécessaire – si l’on veut qu’une organisation soit viable de développer une culture de la conséquence dans les équipes, c’est-à-dire de conceptualiser et d’anticiper les impacts des actions et décisions humaines, en amont des processus, même pour les missions les plus techniques qui soient.

La seconde acceptation possible de l’éthique by design renverrait à une approche « par conception », qui va au-delà de l’intentionnalité (centrée sur le jugement humain) en étant techno-centrée. Il s’agit ici d’une approche de l’éthique orientée « objet », c’est-à-dire qui prend en considération les contraintes techniques pour implémenter de manière opératoire des principes éthiques dans les fonctionnalités, les structures, les agencements voire l’esthétique des techniques. Cette éthique « par conception », s’illustre par exemple avec les approches des machine ethics qui visent à définir des comportements éthiques dans la programmation d’agent moraux artificiels, ou encore celle du Value Sensitive Design (VSD), développée par Batya Friedman (1996), qui a par exemple permis de théoriser le concept de privacy by design (PbD). Le PbD étant une méthodologie qui permet de prendre en compte dès la phase de conception des systèmes, les exigences légales en matière de protection des données personnelles, et d’intégrer les outils de protection directement dans le produit, au lieu de les ajouter ultérieurement sous forme de compléments. Cette éthique orientée objet reflète néanmoins toujours des frictions entre, d’une part, la volonté d’intégrer des valeurs humaines dans l’objet, et d’autre part, les valeurs d’usage qui réclament un bon fonctionnement technique et/ou une facilité d’appropriation. La valeur d’explicabilité des systèmes par exemple, nécessite des efforts techniques et pédagogiques qui, même s’ils sont louables, peuvent amputer l’utilisabilité d’un outil. 

Une troisième acceptation de l’éthique by design suppose de considérer ce qui se produit au travers de la médiation technique. Cette approche, inspirée de la philosophie des techniques et notamment de la post-phénoménologie, se distingue donc de l’éthique par conception décrite précédemment, car il n’est pas question ici d’implémenter des règles, normes ou principes éthiques dans les fonctionnalités mêmes de la technique, mais d’observer et de penser les effets sociaux (entre autres) de la co-définition du sujet et de l’objet par les médiations techniques. A titre d’exemple, Peter-Paul Verbeek décrit la façon dont les téléphones portables co-forment nos modes de socialisation (Verbeek, 2005). Cette réflexion sur la médiation nous invite à décentrer notre regard d’une éthique anthropocentrée vers une éthique relationnelle (sujet-objet), à partir de l’observation des effets des médiations. Le contexte numérique impose un tel renversement des théories éthiques classiques anthropocentrées, tel que l’a proposé Luciano Floridi avec son éthique de l’information (Floridi, 1999). Celle-ci s’inspire des éthiques environnementales ou médicales, qui mettent au cœur de la réflexion morale après l’agent et l’action le « patient » ou toutes formes de vie qui subit des actions de l’extérieur. 

Références :

Fischer F. (2019), L’éthique ‘’by design’’ du numérique : généalogie d’un concept, Sciences du design 10 (hors-série), Nouveaux regards (Novembre 2019) 

Floridi, L. (1999). Information ethics: On the philosophical foundation of computer ethics. Ethics and information technology, Kluwer Academic Publishers, vol.1, p.3756

Friedman, B. (1996). Value-sensitive design. Interactions, 3(6), p.16–23

Moore Stephanie, L. (2010). Ethics by design: Strategic thinking and planning for exemplary performance, responsible results, and societal accountability, HRD Press Inc.,U.S

Papanek V. (1974), Design pour un monde réel. Ecologie humaine et changement social, Collection Essais, Mercure de France, 358p. Trad. Nelly Josset et Robert Louit.

Verbeek, P.P. (2005). What things do, Pensylvannia, Pensylvannia State University

Roland Barthes évoque dans ses Mythologies la cuisine « ornementale » figurée dans les magazines féminins, qui fonctionne sur la représentation d’une nourriture irréelle et magique[1]. Sur Instagram, c’est cette ornementalité qui se retrouve prolongée à travers les pratiques liées au « foodporn », qui consiste à produire des photographies esthétisées de nourriture. Le suffixe « ‑porn » indique alors l’aspect central du désir dans ces mécanismes de mise en image.

Le terme n’est toutefois pas récent, bien au contraire : Rosalind Coward l’emploie déjà en 1984 pour désigner la pratique de camoufler la préparation de la nourriture[2]. Aujourd’hui, le hashtag renvoie à la fois à un véritable culte de la nourriture (avec presque 212 millions d’images sur Instragram), à une perception de l’alimentation idéalisée, et à une pratique d’amateurs[3] imitant la photographie culinaire professionnelle. Les internautes fixent l’expérience extraordinaire pour l’inscrire dans une communauté qui célèbre l’amalgame des sens : entre la gustation visuelle et le regard savourant. 

Ces pratiques réactivent le lien entre le terme « porn » et l’enjeu de voyeurisme : le but n’est pas tant de faire que de faire voir. Le désir associé à l’objet est alors dissocié de sa connotation sexuelle initiale, via un glissement sémantique qui sépare le « porn » de son terme originel « pornography[4] ». En filigrane de l’exhibition se pose donc également la question de l’artifice. L’esthétique du « porn » repose sur l’ambiguïté déceptive du « comme si » (les assiettes ainsi partagées sont-elles vraiment consommées ?).

L’emploi du suffixe « ‑porn » n’est cependant pas limité aux images de repas. Il peut être applicable à la mise en scène de pratiques et d’objets divers, tels que le voyage (#travelporn), les voitures (#carporn), les livres (#bookporn), les nuages (#cloudporn)… Il s’agit dans tous les cas de représenter l’élément photographié comme objet de fantasme : comestible ou non, ce dernier appelle dans ce contexte à être « dévoré » du regard. L’incitation à l’exhibition qui structure la pratique photographique sur les réseaux sociaux entraine un usage inflationniste, une banalisation du « porn ». Ces enjeux de standardisation esthétique posent la question de la nature interchangeable des objets ainsi mis en scène. Le cadrage éditorial des plateformes qui accueillent ces iconographies joue dès lors un rôle majeur dans ce processus de lissage formel. 

L’association de l’objet à sa mise en désir iconicisée trouve en conséquence un écho particulier dans les logiques d’un « capitalisme artiste[5] », qui met en avant la valeur esthético-émotionnelle[6] des biens en stylisant l’univers du quotidien. Dès lors, la poétique du « porn » constitue un moyen privilégié de réaffirmer le fétichisme de certains objets ou pratiques envisagés à l’aune d’enjeux marchands. L’image photographique devient l’embrayeur d’une sociabilité publicitaire au service des plateformes[7], via une mobilisation de la « pulsion scopique » du consommateur. 

Références :

Roland Barthes, Mythologies, Paris : Éditions du seuil, 1957

Rosalind Coward, Female Desire : Women’s Sexuality Today. Londres : Paladin, 1984.

Patrice Flichy, Le sacre de l’amateur. Sociologie des passions ordinaires à l’ère numérique, Paris, Édition du seuil, 2010. 

Gilles Lipovetsky, Jean Serroy, L’esthétisation du monde. Vivre à l’âge du capitalisme artiste, Paris, Gallimard, 2013. 

Caroline Marti, « Au nom du partage… Enjeux publicitaires d’une propagation photographique culinaire. », colloque #foodporn : les mobiles du désir, IRCAV-Paris 3, 14 décembre 2018.

José Antonio Sanchez Fajardo, « Not all that glitters is sex », American Speech, Vol. 93, No. 1, Février 2018.


[1] Roland Barthes, Mythologies, Paris : Éditions du seuil, 1957, p. 120.

[2] Coward, Rosalind, Female Desire : Women’s Sexuality Today. Londres : Paladin, 1984.

[3] Patrice Flichy, Le sacre de l’amateur. Sociologie des passions ordinaires à l’ère numérique, Paris : Édition du seuil, 2010. 

[4] José Antonio Sanchez Fajardo, « Not all that glitters is sex », American Speech, Vol. 93, No. 1, Février 2018.

[5] Gilles Lipovetsky, Jean Serroy, L’esthétisation du monde. Vivre à l’âge du capitalisme artiste, Paris : Gallimard, 2013. 

[6] Ibid.

[7] Caroline Marti, « Au nom du partage… Enjeux publicitaires d’une propagation photographique culinaire. », colloque #foodporn : les mobiles du désir, organisé par le groupe de recherche « Mobile et Création » de l’IRCAV-Paris 3, le 14 décembre 2018.

Le syntagme « forum de patients » est issu des recherches menées conjointement par des chercheurs en sciences de l’information et de la communication, en philosophie, sociologie et médecine, au sein du Site Intégré de Recherche Interdisciplinaire sur le Cancer CURAMUS Sorbonne Université APHP. Il désigne à la fois les dispositifs numériques (sur des plateformes, réseaux sociaux, site internet d’associations ou institutions, …), leurs architextes et les prises de parole permettant des échanges à des groupes de patients, aidants, proches, médecins autour d’une pathologie spécifique ou d’un groupe de maladies (typiquement « le cancer »). Ces dispositifs et groupes hétérogènes sont autrement dénommés « communauté de patients, communauté de patients en ligne, forum santé, forum de l’expérience patient, patient 2.0, tchat patients, forum de discussion et forum patient-médecin ». Ces dispositifs émanent d’acteurs/énonciateurs très divers ; tant des associations des patients, d’acteurs de santé publique et de recherche, de laboratoires pharmaceutiques, de médias spécialisés dans le domaine de la santé, que d’acteurs individuels. 

L’expression « forum de patients » permet de ne privilégier aucune de ces formes et/ou un de ces acteurs en endossant leurs discours et les imaginaires du numérique qu’ils véhiculent. Le terme forum, très présent dans le vocabulaire commun du numérique, permet d’envisager le dispositif, étymologiquement, comme la métaphore d’une place et plus largement d’un lieu où se discutent à la fois les affaires marchandes, juridiques, publiques et politiques. Par extension, la notion de forum désigne les réunions ou débats publics, notamment sur des thèmes politiques ou scientifiques, ce qui met en avant l’aspect communicationnel des échanges. (Littré et Trésor de la Langue Française Informatisé) 

Dans une perspective barthésienne, la méta-métaphore du « forum de patients » rend bien compte de ce va-et-vient incessant « entre l’objet et sa démystification, impuissants à rendre sa totalité : car si nous pénétrons l’objet, nous le libérons mais nous le détruisons ; et si nous lui laissons son poids, nous le respectons, mais nous le restituons encore mystifié »(Barthes Mythologies,1957).

En outre, le syntagme « forum de patients » permet de faire cohabiter, en jouant sur les deux sens du génitif « de », l’idée que le forum émane des patients autant qu’il les construit en tant que tels, voire les fait advenir. Comme le souligne Yves Jeanneret à propos de la formule « technologies de l’information » : « la question [du génitif] n’est ni anodine, ni secondaire, mais centrale. Les « technologies de l’informations » sont-elles taillées dans l’information, comme le pavé est taillé dans le rumsteck, ou sont-elles pourvoyeuses d’information, comme la fontaine est pourvoyeuse de jouvence (ou voudrait l’être) ? Sont-elles fabriquées avec l’information ou fabricantes d’information ? L’information est-elle leur matière première ou leur résultat ? » (Jeanneret, Y a‑t-il (vraiment) des technologies de l’information, 2011, 58). 

Le « forum de patients » s’inscrit dans les dispositifs, formes et formats numériques dits « participatifs ». En cela, il présente les caractéristiques du conatus discursif (Candel, 2016, « Le cas de la critique de livres participative sur les réseaux », in Rialland (dir.), Critique et médium, Paris, CNRS Éditions, 324) au sens où il constitue « un appel à écrire et à contribuer sans cesse qui est cultivé dans les formes dites participatives des médias et glorifié par l’affichage de toutes les productions des amateurs ». La figure de l’amateur pose, in fine, la question du statut des participants-écrivants dans l’espace proposé/imposé par ces dispositifs.  Quelle expertise, quelle autorité/légitimé, quelle auctorialité, quelles relations d’aide, de pouvoir construisent-ils ou représentent-ils ? En cela, ils peuvent être interrogés dans leur potentialité à constituer des « matrices génératives d’autorité » (Damien, Éloge de l’autorité. Généalogie d’une (dé)raison politique, 2013, 21). 

Le terme, associé à l’action d’infliger (frapper, heurter, faire subir), employé de longue date dans la physique, l’ingénierie et le militaire devient courant dans le domaine de la communication et de l’information pour désigner l’effet — plus ou moins prononcé — produit par quelque chose, sa répercussion, son influence. 

Il donne une valeur symbolique particulière à l’effet produit par l’objet technique et incarne l’opérativité même de sa dimension communicationnelle. Il est, en ce sens, souvent accompagné d’un adjectif qui le qualifie : on parle alors d’« impact publicitaire », « impact médiatique », « impact positif » ou « impact négatif » d’une campagne publicitaire. Dans ces cas, l’emploi du terme suggère une conception linéaire et unidimensionnelle de la communication impliquant une cause et un effet. 

Mais l’« impact » se produit aussi à coups d’éclat dans les discours professionnels, savants, journalistiques et militants du numérique : il est souvent question de l’« impact » des nouvelles technologies sur la société ou la culture, l’impact des médias sociaux sur la société, impact de la transformation numérique. Dans une acception proche de l’usage courant dans le domaine publicitaire, il s’agit ici de désigner l’emprise de l’objet technique sur le social. 

Ici, la métaphore balistique est fort suggestive, car « impact » relève à la fois du sensible — heurt entre le corps matériel du support et le corps physique des sujets — mais aussi du mesurable — dimension utilitaire de son efficacité marchande. Dans un pragmatisme propre à la raison instrumentale qui ne connaît plus rien en dehors des effets, la notion s’empare de l’objet technique comme projectile : il serait possible d’évaluer quantitativement son angle de tir, sa trajectoire, sa portée, ses dégâts et, plus important, sa cible, dont la résistance se traduirait par une certaine capacité à absorber le choc. « Impacter » c’est communiquer par coups : des frappes ravissantes de l’objet technique sur la société, dotées toujours de valeurs quantifiables. 

Mais une telle métaphore peut s’avérer trompeuse, car en supposant un projectile (l’objet technique) et une cible (la société ou la culture) elle ne s’empare de cette dernière que comme un pôle récepteur. L’« impact » ne se réalise pas pour ou avec, mais contre quelqu’un ou quelque chose : le terme indique que l’objet technique s’impose à la société qui, pour sa part, le subit passivement. Son emploi témoigne donc d’un déterminisme technologique avec lequel le sujet tend à être appréhendé.

Références :

AKRICH, Madeleine. “La construction d’un système sociotechnique. Esquisse pour une anthropologie des techniques”. AKRICH, Madeleine, et al.. Sociologie de la traduction : Textes fondateurs. Paris : Presses des Mines, 2006. pp. 109134

LEVY, Pierre. Cyberculture: Rapport au Conseil de l’Europe. Paris : Éditions Odile Jacob, 1997.

MEISSONIER, Régis. « L’indéterminisme scientifique vu comme une richesse », Systèmes d’information & management, vol. volume 19, no. 2, 2014, pp. 37.

La notion d’instrumentation numérique désigne l’ensemble des processus concourant au développement et/ou à l’intégration de dispositifs d’exploitation de données numériques dans les pratiques de recherche scientifique. Elle a été initialement mobilisée pour éclairer les effets épistémologiques de ces dispositifs, aussi qualifiés d’instruments numériques, sur l’étude des phénomènes socioculturels (Bigot, 2018).

L’instrumentation numérique peut être considérée, fondamentalement, comme un processus de médiation organisant et structurant une relation à l’objet scientifique selon un régime épistémique spécifique, cette relation s’incarnant dans l’agencement technosémiotique du dispositif d’écriture qu’est l’instrument numérique. De cette optique émerge une hypothèse centrale posant que les contraintes représentationnelles des dispositifs instrumentaux, à la fois matérielles et symboliques, impliquent des régimes épistémologiques spécifiques.

Sur un plan phénoménologique, l’instrumentation numérique relève d’une phénoménotechnique, selon un concept emprunté à l’épistémologie de Gaston Bachelard qui, dans une perspective constructiviste, constate que la science contemporaine, ou ce qu’il nomme « le nouvel esprit scientifique » (Bachelard, 1934), se caractérise par une rupture avec le principe de l’observation empirique et l’adoption d’une démarche expérimentale instrumentée généralisée. Par là, les phénomènes étudiés par les scientifiques tendent à devenir de pures constructions abstraites fabriquées par le truchement d’artéfacts techno-mathématiques et sont ainsi autant une propriété de la nature qu’un construit technique. Dans cette perspective, l’instrument scientifique devient un prolongement systématique, non seulement des capacités perceptives, mais aussi des capacités cognitives du chercheur : c’est une visibilité qui renferme une intellectualité. Plus précisément, l’instrumentation n’a pas pour fonction d’enregistrer les « données » d’un réel objectif qui lui préexisterait mais, plus subtilement, elle a la propriété d’élaborer des « phénomènes » résultant d’un contact ou d’une relation entre les paradigmes d’une théorie instituée, dont les instruments sont la réalisation matérielle, et certaines qualités d’objets sans elle inaccessible. Pour nous, l’instrumentation numérique se situe au paroxysme de la phénoménotechnique.

L’instrument numérique est d’abord un instrument d’inscription (Latour, 1985) articulant une ingénierie représentationnelle avec un modèle analytique inscrits dans un programme informatique. Cette articulation entre un « savoir » et un « voir » opérée par le dispositif instrumental détermine ce que nous nommons une posture épistémologique. Nous employons cette notion pour désigner la manière dont le substrat instrumental configure et met en œuvre une expérience épistémique singulière. Cette posture procède d’une double opération : une implémentation méthodologique et une inscription paradigmatique.

L’implémentation méthodologique correspond à la formalisation d’une méthode dans un programme[1]. Plus précisément, il s’agit de l’élaboration d’un procès d’écriture programmatique commandé par l’architexte du dispositif instrumental qui organise, non seulement un geste de représentation (« visualisation » des données), mais également prescrit une procédure analytique (interprétations statistiques des données). Une analyse de différents archétypes d’instruments numériques (Bigot, 2018 et 2019) a montré que cette procédure représentationnelle et analytique repose majoritairement sur des prescriptions algorithmiques. En effet, pour permettre le traitement d’abondantes masses de données, les concepteurs développent les fonctions représentationnelles, analytiques et statistiques de ces programmes en les formalisant dans des algorithmes dont l’effectuation semi-automatisée est plus ou moins paramétrable par l’utilisateur.

Intimement liée à l’implémentation méthodologique, l’inscription paradigmatique désigne l’incorporation et la réalisation matérielle d’un ensemble de « paradigmes »[2] scientifiques dans le dispositif instrumental. Là aussi, un examen attentif des propriétés technosémiotiques des instruments numériques révèle que l’écriture algorithmique dont ils procèdent est une écriture théoriquement située, dans le sens où les algorithmes (de « visualisation » ou de calcul statistique) sont élaborés à partir de théories, voire de théorèmes, directement empruntés à des champs disciplinaires bien spécifiques. À titre d’exemple, les algorithmes aux fondements de l’application d’analyse de réseaux Gephi sont issus de travaux en théorie des graphes et du champ de la « science des réseaux », deux domaines relevant de l’informatique et des mathématiques appliquées. De la même façon, un logiciel lexicométrique comme IRaMuTeQ implémente la « méthode Alceste » sur la base d’algorithmes initialement dévolus au domaine linguistique de « l’analyse de données » et provenant notamment de la « théorie des mondes lexicaux » de Max Reinert.

Des enjeux politiques… (à suivre)

Références :  

Bachelard Gaston, (1934), Le nouvel esprit scientifique, Paris, PUF.

Bachimont Bruno, (2010), Le sens de la technique : le numérique et le calcul, Paris, Les Belles Lettres.

Bigot Jean-Édouard, (2019), « Enjeux épistémologiques et politiques d’une instrumentation numérique des SHS », Actes de la conférence H2PTM’19, 1618 octobre 2019, Montbéliard, ISTE Editions.

Bigot Jean-Édouard, (2018), Instruments, pratiques et enjeux d’une recherche numériquement équipée en sciences humaines et sociales, Thèse en sciences de l’information et de la communication, Université de Technologie de Compiègne.

Bigot Jean-Édouard, Mabi Clément, (2017), « Une instrumentation numérique des sciences humaines et sociales. Enjeux épistémologiques et communicationnels », Les cahiers du numérique, vol. 13, n° 3, p. 6390.

Bourdieu Pierre, (2001), Science de la science et réflexivité, Paris, Raisons d’agir.

Daston Lorraine, Galison Peter, (2012), Objectivité, Paris, Les Presses du Réel.

Kuhn Thomas, (1962), The Structure of Scientific Revolutions, University of Chicago Press.

Latour Bruno, (1985), « Les vues de l’esprit. Une introduction à l’anthropologie des sciences et des techniques », Culture technique, n° 14, p. 430.


[1] Selon des conceptions empruntées à Bruno Bachimont pour qui l’évolution des technologies cognitives tend à faire disparaître la méthode dans le régime de la méthodologie, c’est-à-dire dans un régime de délégation machinique croissante où l’agent humain se voit attribuer une posture de simple exécutant dans la mise en œuvre d’un protocole analytique et interprétatif majoritairement pris en charge par le dispositif technique (Bachimont, 2010).

[2] Nous entendons ici par « paradigmes », à la suite de Thomas Kuhn, un ensemble de schèmes et de modèles, de concepts et de lois générales, de définition des objets, et encore de modes de problématisation singuliers, qui délimitent l’espace d’une matrice disciplinaire donnée dans le champ scientifique (Kuhn, 1962).

Terme forgé lors d’une école d’été du Dartmouth College en 1956, l’intelligence artificielle provient de discussions qui ont connu une intensité remarquable dans les années 40 lors de la naissance de la cybernétique. Cette dernière visait à établir une théorie du contrôle des systèmes naturels et artificiels, se fondant sur des analogies entre le vivant et le mécanique (comportement proie – prédateur / torpille objectif, oscillations motrices / oscillations loin de l’équilibre, etc.) [Rosenblueth et al., 1943]. En outre, elle faisait la synthèse entre la compréhension du fonctionnement cérébral et les nouvelles théories de la calculabilité en proposant de voir dans le cerveau la première réalisation d’une machine de Turing en se fondant sur la notion de neurone formel, base de calcul formel et abstraction du neurone biologique [McCulloch & Pitts 1943].

Faisant suite à ces prémices cybernétiques, l’intelligence artificielle s’est donnée comme objectif d’avoir une théorie générale de l’intelligence (par exemple, [Haugeland 1981, Newell 1990]), qu’elle soit le fait de systèmes naturels ou artificiels. Il fallait donc proposer les principes à la base de la cognition, pour les observer et analyser dans les systèmes naturels et les reproduire et expérimenter dans les systèmes artificiels. Comme le soulignait J. Haugeland [1989], il valait mieux parler d’intelligence de synthèse, car on voulait produire une véritable intelligence avec des moyens artificiels, que d’intelligence artificielle comprise comme une intelligence simulée ou dégradée. 

On vit alors plusieurs paradigmes ou principes proposés pour expliquer ou rendre compte de l’intelligence. Deux propositions se faisaient concurrence : 

  • La représentation formelle des connaissances humaines pour les mettre à disposition de la machine qui se comportait alors comme un raisonneur ou démonstrateur de théorèmes. L’enjeu est de doter la machine des mêmes outils ou contenus que ceux qui nous, systèmes cognitifs et intelligents, permettent de réaliser des tâches ou résoudre des problèmes. L’hypothèse sous-jacente est que l’intelligence repose sur un langage, possédant sa grammaire (le raisonnement) et son lexique (les connaissances). Historiquement, ce sont les systèmes experts (base de connaissance et moteur d’inférences), à présent les ontologies et les raisonneurs.
  • La modélisation de l’inférence sous la forme de réseaux de neurones formels,  l’organisation des neurones et du réseau ne reflétant pas la représentation des connaissances, mais s’optimisant via un apprentissage sur des données. Ce furent historiquement le Perceptron de Rosenblatt et aujourd’hui les différentes facettes du machine learning et deep learning.

Ces deux paradigmes ont connu des succès divers et des effets de modes contrastés. Les réseaux de neurones, après quelques implémentations prometteuses, furent condamnés pour limitation intrinsèque par Minsky et Papert en 69 : ces réseaux ne pouvaient pas apprendre des organisations non linéairement séparables de données. L’ingénierie des connaissances connut alors ses heures de gloire, notamment lorsque des systèmes experts résolurent des problèmes complexes, comme Prospector [Duda et al. 1981] qui permit de trouver de nouveaux champs pétrolifères ou Mycin en médecine [Shortliffe 1976]. Quand fut mis au point dans les années 80 la rétropropagation du gradient (méthode pour calculer le gradient de l’erreur pour chaque neurone d’un réseau, ce qui permet de faire apprendre à un réseau la reconnaissance de formes complexes), on put concevoir des réseaux de neurones outrepassant la barrière de la linéarité. Cette dernière décennie, la disponibilité de masses de données d’une part et d’architectures de processus performantes (notamment grâce aux jeux vidéo) d’autre part, a permis d’obtenir des résultats spectaculaires, relançant les débats et phantasmes sur les machines qui pensent et qui détrônent l’humain.

C’est pourquoi il faut sans doute considérer l’IA sous deux aspects complémentaires : l’un, sur le plan des résultats obtenus et des possibilités scientifiques et techniques avérées ; l’autre, sur la question de la machine prétendant à l’intelligence.

Sur le premier plan, on a une situation contrastée : d’un côté, on a des outils très performants pour traiter des données, essentiellement pour dégager des formes que l’on veut reconnaitre ou appliquer ensuite, sans être capable cependant :

  • d’utiliser les connaissances dont on dispose sur ces données (les modèles, les informations structurées, etc.) ;
  • d’interpréter les calculs effectués ;
  • d’évaluer les résultats obtenus quand ils s’appliquent à des problèmes nouveaux.

Mais pour toutes les tâches dont on sait évaluer les résultats, les performances sont spectaculaires et font mieux que les experts humains (reconnaissances de radiographies médicales par exemple), jeux de stratégie (Jeopardy, Go, Echec, etc.). Cette approche est également très intéressante du fait de sa robustesse et résistance aux données hétérogènes et fautives.

D’un autre côté, les approches mobilisant les représentations formelles des connaissances (ontologies par exemple) sont précises, intelligibles et prennent en compte la structure des connaissances. Les résultats et les calculs pour les obtenir sont interprétables. Cependant ces approches sont peu robustes (réagissent mal devant des données fautives) et peu scalables (traitement des grandes masses de données). 

L’un des grands enjeux aujourd’hui est de pouvoir marier les avantages de ces deux approches, en étant capable d’injecter les connaissances a priori dans les traitements, de conserver l’intelligibilité de ces derniers et que leurs résultats soient interprétables tout en gardant la robustesse aux défauts et la résistance à la masse. 

Sur le second plan, la question est de savoir si ces traitements, aussi spectaculaires soient-ils, nous apprennent quelque chose sur l’intelligence. Plusieurs remarques peuvent être faites :

  • Dans son fonctionnement, l’ordinateur est irrémédiablement stupide, manipulant des signes qui n’en sont pas, aveugles et déconnectés de toute réalité matérielle (implémentation) et sémantique (interfaces, capteurs et effecteurs). 
  • Le calcul fonctionnant de manière locale, les structures de calcul ne pouvant mobiliser que les parties qui les composent, il ne peut reproduire les approches globales et systémiques qu’on retrouve dans les processus interprétatifs et herméneutiques. En particulier, le calcul est par principe aveugle au contexte, qui ne peut être pris en compte qu’à travers une représentation comme élément du calcul (n’étant alors plus un contexte).
  • Cette incapacité à prendre en compte l’intelligence ne se limite pas à cette dernière : la barrière du vivant reste également infranchissable. Kant dans sa troisième critique notait déjà qu’on attendait toujours le Newton du brin d’herbe.

La question n’est pas de savoir si la machine est aussi intelligente que l’humain : la réponse est négative. En revanche, la question est plutôt de savoir si l’humain n’est pas aussi stupide que la machine, ou plutôt, rendu aussi stupide qu’une machine qui peut dès lors le remplacer. Si l’humain comme système cognitif n’a rien à craindre des machines artificielles, il apparaît en revanche que sa mobilisation dans des routines bureaucratiques, gestionnaires, normées, programmées et anticipées en fait un système abruti, à savoir réduit à l’état d’une brute qu’une machine peut facilement voire avantageusement remplacer (la machine ne se fatigue pas, la machine travaille tout le temps, etc., comme en témoignent les récits de la révolution industrielle du 19e siècle [Jarriges 2016], le numérique opérant la même révolution sur les techniques intellectuelles). 

La question que pose l’IA n’est pas celle de l’intelligence, mais plutôt celle selon laquelle la complexification de notre société et de nos procédures se traduit par une mécanisation des acteurs de la société et des individus qui la composent. Mais si cette complexité est désormais le fait de machines et d’humains rendus indiscernables, elle devient immaîtrisée voire immaîtrisable puisque les humains n’en sont plus qu’une composante, un élément automatisé et programmé, sans pouvoir la considérer globalement et la réguler. Cependant la complexité reste complexe ! Autrement dit, elle n’est pas monolithique, et la programmation de l’humain ne peut être univoque, le contexte restant toujours extérieur à elle et intervenant de ce fait sur son fonctionnement. La pluralité à travers laquelle s’exprime la complexité, un système technique ou bureaucratique n’étant jamais global malgré qu’il en ait, est sans doute un élément de réponse : maîtriser un processus ne se fait pas de l’intérieur, car on en devient un rouage, mais de l’extérieur car on le fait jouer avec d’autres qui le contestent et avec lesquels il faut composer. 

Références

Duda, R.O., Gaschnig, J., & Hart, P.E. (1981). MODEL DESIGN IN THE PROSPECTOR CONSULTANT SYSTEM FOR MINERAL EXPLORATION.

Jarrige, F., (2016) Technocritiques, La Découverte.

J. Haugeland (Ed.). (1981). Mind Design Philosophy, Psychology, Artificial Intelligence. Cambridge Mass: The MIT Press.

J. Haugeland  (1989). L’esprit dans la machine ; Fondements de l’intelligence artificielle. Paris: Odile Jacob.

McCulloch et Pitts, The Logical Calculus of the Ideas Immanent in Nervous Activity,  Bulletin of Mathematical Biophysics, Oxford, Elsevier Sciences, 1943, 5, 115133.

Marvin Minsky and Seymour Papert, 1972 (2nd edition with corrections, first edition 1969) Perceptrons: An Introduction to Computational Geometry, The MIT Press, Cambridge MA

A. Newell  (1990). Unified Theories of Cognition. Cambridge, Ma: Harvard University Press.

A. Pélissier, & A. Tête (Eds.). (1995). Sciences Cognitives : Textes fondateurs (19431950). Paris: Presses Universitaires de France.

Rosenblueth, Wiener et Bigelow, Behavior, Purpose and Teleology, Philosophy of Science, Baltimore, Williams & Wilkins, 1943, Vol. X, p. 1824. E. H. Shortliffe  (1976). MYCIN: Computer-based Consultations in Medical Therapeutics: American Elsevier. 

Entre industrialisation du commentaire testimonial et infra publicité

Définition

Sur Internet, les avis désignent une catégorie discursive quantifiée qui regroupe les commentaires évaluatifs d’internautes, à propos d’une expérience de consommation.

Ces avis cumulés sont au cœur de l’économie des plateformes et participent au système de mise en visibilité, d’évaluation, de valorisation et de crédibilisation des offres. Pour les plateformes, cette mise en place de dispositifs d’évaluation allant de pair avec une « industrialisation des commentaires » a un rôle essentiel, entre fondement de la confiance et conditionnement de l’existence même de l’offre.

Une première analyse, menée dans le cadre d’une intervention à un colloque de l’UQAM en 2018, sur la numérisation de la société, m’a permis de me pencher sur un terrain, celui des expériences gastronomiques sur Tripadvisor mais le travail est à approfondir et étendre.

Les avis en tant que traces scripturaires d’un récit d’expérience invitent à diverses interrogations et perspectives (non exhaustives, « work in progress ») que je présente sommairement :

L’écriture

  • Comment l’hétérogénéité est-elle prise en charge, réduite, corrigée, orientée par les sites qui accueillent ces avis ? L’écriture est en effet encadrée et orchoestrée en partie en fonction de critères prédéterminés par l’énonciateur principal
  • Comment ces avis sont-ils rédigés ?  A quels genres discursifs renvoient-ils ?
    • exploration du genre testimonial quand il s’exprime sur internet (quel régime de vérité, entre expression des affects et objectivation des critères de l’expérience ?)
    • exploration de la transmédialité et analyse des emprunts faits aux discours médiatiques pour qualifier une expérience (par exemple une expérience culinaire dans un restaurant évoquée dans les termes d’un critique gastronomique, d’un chef ou d’un amateur dans une émission de télé-réalité). Y a ‑t-il un genre singulier de l’avis sur Internet ?
  • Quels effets de correspondance peut-on établir entre les différents avis ? Y a‑t-il un dialogue ou une juxtaposition d’expressions ?
  • Le caractère composite des évaluations est-il subsumé par une logique globale de l’avis qui s’apparenterait alors à une volonté promotionnelle ou dissuasive, dans une perspective pragmatique ? 
  • Peut-on dégager une rhétorique de l’avis ?
  • On peut parler d’infra-publicité pour désigner ces pratiques d’amateurs médiatisant des expériences pour participer à un système global de recommandation de consommation. 

Interprétation des avis

  • Comment la polyphonie énonciative produite par ces différents avis participe-t-elle à l’élaboration des représentations d’une promesse de consommation ?
  • Comment les internautes lecteurs interprètent-ils les avis dès lors qu’ils sont traversés par une volonté promotionnelle ou de dissuasion, par des affects, par une objectivation des critères de l’expérience ?
  • Cette micro fonction publicitaire de l’ordinaire est à la fois l’extension numérisée du bouche-à-oreille traditionnel et une modalité de la mise au travail des consommateurs par les intermédiaires marchands. Comment cette fonction est-elle qualifiée par les usagers ?

La vie sociale travaillée par le numérique

  • Comment les acteurs marchands prennent-ils en compte cette fonction de leurs consommateurs et cherchent-ils à les influencer ?
  • Comment la pratique de l’avis numérisé transforme-t-elle les pratiques sociales (je pense au choix du restaurant qui est rarement désormais le fruit de l’arpentage d’un quartier au profit d’une pré-selection sur internet)

Questions méthodologiques

  • Comment méthodologiquement aborder ces commentaires hétérogènes en genre, qualités d’écriture ? Etablir des corpus, proposer des catégories provisoires (idée de corpus multi-catégorisable en fonction des questions posées) ?
  • Comment analyser en réception la façon dont ces commentaires sont abordés, questionnés ou saisis en tant qu’éléments pragmatiques ?

La littératie numérique renvoie à l’ensemble des connaissances et des compétences (indissociablement techniques, communicationnelles et informationnelles) requises pour la pratique de l’écriture en milieu numérique (voir entrées écriture numérique et milieu numérique). 

La notion de littératie est entendue selon de multiples acceptions, dont la plupart s’inscrivent dans une approche instrumentale de la technologie numérique. C’est pourquoi il nous semble nécessaire de préciser notre positionnement dans le champ des études de la littératie (Cailleau, Bouchardon et Crozat, 2018).

Tout d’abord, comme le rappellent Béatrice Fraenkel et Aïssatou Mbodj (Fraenkel et Mbodj, 2010), « le terme anglais literacy appartient au langage commun en langue anglaise, il désigne la capacité à lire et à écrire ». Ce terme vient du latin « litteratus » et selon l’étude du médiéviste Herbert Grundmann, sa sémantique se construit en relation à son antonyme « illiteratus », terme qui désigne avant le 12e siècle « celui qui ne sait ni lire ni écrire » et qui par la suite acquiert la connotation supplémentaire de la non maîtrise du latin. Les auteurs soulignent ainsi l’ambiguïté originelle du terme de littératie qui oscille entre une compétence qui relève d’une maîtrise technique du lire/écrire et une composante culturelle.

Les auteurs pointent en outre que les deux grands courants d’études sur la littératie reflètent cette ambiguïté du terme.
Le premier, le modèle dit « autonome », issu des travaux de Jack Goody, considère que l’écriture en tant que « technologie de l’intellect » ouvre des possibles pour l’organisation sociale et les processus cognitifs » (Goody 2007) indépendamment des pratiques effectives et des contextes où elles se déploient. Ces possibles peuvent selon les contextes n’être que partiellement exploités, ce qu’il qualifie de « littératie restreinte » (idem).
Le second, le modèle dit « idéologique » proposé par Bryan Street, pose que les pratiques scripturales sont toujours situées et qu’il n’est pas possible de leur attribuer des effets a priori.

Ces deux courants influent sur les travaux regroupés sous l’appellation de « New Literacy Studies ». Comme le soulignent Éric Delamotte, Vincent Liquète et Divina Frau-Meigs (Delamotte et al. 2013), « sous l’effet de l’arrivée d’Internet et du web 2.0, ces nouvelles littératies se partagent en deux orientations, l’une psycho-cognitive s’appuyant sur l’appropriation mentale des processus de compréhension induits par le numérique, l’autre socio-culturelle, se focalisant sur les pratiques sociales et les modes de faire finalisés permis et/ou contraints par le contexte technique. »

Dans ce contexte, il est manifeste que les postulats relatifs à la nature de la littératie vont influer sur la manière d’envisager les modalités qui vont permettre de la développer. Autrement dit, le fait de considérer que l’écriture numérique possède des spécificités indépendamment des usages versus celui de soutenir que ses effets dépendent uniquement du contexte où elle se déploie va induire une conception des connaissances et des compétences à développer sensiblement différente. Toutefois, les deux orientations identifiées par Éric Delamotte et al. trouvent actuellement une grande variété de déclinaisons. En ce qui nous concerne, le fait de nous situer dans la lignée de la thèse de la « raison graphique » de Jack Goody, comme nous l’avons exposé ci-dessus, ne nous conduit pas à une approche psycho-cognitive. Elle requiert une autre approche, une recherche technologique, qui envisage la littératie numérique comme relevant d’une connaissance et d’une compréhension des spécificités de la technologie de l’intellect qu’est l’écriture, indissociablement technique et culturelle. Cette approche est celle qui nous paraît la plus appropriée pour dévoiler notre milieu numérique selon une double finalité de recherche et d’enseignement.

En effet, si le numérique n’est pas un simple fait auquel il faut s’adapter, un ensemble de moyens techniques qu’il s’agirait de bien utiliser, alors l’enseignement de l’écriture numérique ne saurait se limiter à une simple intégration des instruments d’écriture numérique dans les pratiques pédagogiques. Il existe un enjeu très fort à en donner les clés de compréhension et d’action éclairée, en d’autres termes à développer une littératie numérique (Petit et Bouchardon, 2017).

Pour ce faire, nous proposons le concept de « milieu », et plus particulièrement celui de « milieu numérique » (voir entrée milieu numérique), comme un outil pour penser ce qu’il convient d’enseigner en vue de former de véritables lettrés du numérique capables non seulement d’utiliser des outils d’écriture numérique mais aussi de comprendre en quoi ils influent sur nos manières de construire la connaissance et d’agir en relation avec autrui (Bouchardon et Cailleau, 2018). 

Dans cette perspective, la notion de littératie numérique est une expression elliptique pour désigner celle de littératie en milieu numérique. 

Références :

- Bouchardon, S., Cailleau, I . (2018). « Milieu numérique et lettrés du numérique », Le français aujourd’hui, dossier « Écriture numérique : la conversion du littéraire ? », coordination Magali Brunel et Anne-Marie Petitjean, n° 200, Paris : Armand Colin, mars 2018, 117125.

- Cailleau, I., Bouchardon, S., Crozat, S. (2018). « Un MOOC pour agir et comprendre en milieu numérique ». Revue de la société française des sciences de l’information et de la communication, n°12 / 2018, http://journals.openedition.org/rfsic/3377

- Delamotte, E., Liquète, V., Frau-Meigs, D., « La translittératie ou la convergence des cultures de l’information : supports, contextes et modalités », Spirale: revue de recherches en éducation, 2014, pp.145156.

- Fraenker, B., Mbodj-Pouye, A., « Introduction. Les New Literacy studies, jalons historiques et perspectives actuelles », Langage et société, 2010/3 (n° 133), p. 724.

- Petit, V., Bouchardon, S. (2017). « L’écriture numérique ou l’écriture selon les machines. Enjeux philosophiques et pédagogiques », Communication & Langages, n°191, mars 2017, 129148, https://hal.utc.fr/hal-01960029

Le concept de milieu numérique consiste à ne pas penser le numérique seulement comme un moyen, mais comme notre milieu (et en particulier comme notre nouveau milieu d’écriture et de lecture, cf. entrées écriture numérique et littératie numérique), c’est-à-dire ce qui est à la fois autour de nous mais aussi entre nous, ce selon quoi nous agissons et que nous transformons dans une relation de co-constitution permanente.

Le concept de milieu a une longue histoire [1] et comporte de nombreuses variantes définitionnelles selon les auteurs qui le mobilisent. Toutefois, comme le souligne Victor Petit (2013), un noyau commun se dégage en tant que le concept met l’accent sur la relation entre différents termes. Cette relation peut être tenue pour génétique : elle ne préexiste pas aux termes qu’elle constitue. En effet, en langue française, le sens du terme de « milieu » permet de rendre compte de cette exigence conceptuelle antisubstantialiste (où le primat n’est pas donné à la substance mais bien à la relation). Il désigne à la fois :

                            « mi-lieu »            et           « milieu »    

                             le  centre                           l’autour

                             l’entre-deux                       l’ambiance

                             le medium                          l’environnement.            

Cette dualité sémantique est constitutive de son sens. Il est plus que l’environnement car l’environnement « environne », il est extérieur. Le milieu est au « mi-lieu », il est à la fois intérieur et extérieur, il renvoie à une intériorité non déjà constituée et une extériorité constituante de sorte que l’intérieur et l’extérieur co-émergent en même temps. 

L’enjeu de la mobilisation de ce concept est de penser la relation de co-constitution de l’individu et du milieu. Lorsqu’il s’agit de la technique, notamment numérique, le concept de milieu permet de thématiser la relation de co-constitution de l’individu (individuel et collectif) et de la technique (numérique) notamment sous l’aspect du support. Notre milieu comporte une dimension technique constitutive, même s’il ne s’y réduit pas. De même, le numérique est une facette de la technique contemporaine, sans être la seule. Et parler de « milieu numérique » revient à mettre l’accent sur des aspects du milieu contemporain sans pour autant l’y réduire.

[1] Depuis l’héritage grec (meson/oïkos) et latin (medium), le terme de « milieu » a pu prendre au XVIIe siècle un sens physique (Descartes, Mersenne, Pascal), au XVIIIe siècle un sens physico-moral (Mesmer, Cabanis) et médical, au XIXe siècle un sens biologique (Lamarck, Comte, Bernard), bio-social (Balzac/Zola) ou encore sociologique (Durkheim, Tarde). Au XXe siècle, le terme de « milieu » a d’abord un sens géographique (Vidal de la Blache) et géohistorique (Fernand Braudel). A partir de 1945, on constate une explosion du concept et il est question au XXème siècle du « milieu technique » (Leroi-Gourhan, Friedmann/Ellul, Simondon).

Référence :

Petit, V. (2013). « Internet, un milieu technique d’écriture », in Rojas E. (dir.), Réseaux socionumériques et médiations humaines, Paris : Hermès-Lavoisier, 155173. 

La notion de milieu accompagne à travers les siècles la façon dont l’homme configure son rapport, mouvant, à un macrocosme qui le dépasse, et à partir duquel il peut poser sa singularité de sujet humain. Or, avec le numérique, l’homme semble avoir trouvé les moyens de concevoir un milieu à sa mesure, bâti par son langage et ses pratiques : structuré par du code, c’est-à-dire des langages de programmation multiples et évolutifs qui constituent le support numérique ; et abritant des contenus qui, quelle que soit leur nature, passent par une description textuelle et s’inscrivent dans un ensemble d’échanges langagiers. Façonné par des écritures plurielles et collectives, le numérique en vient ainsi à redéfinir de nouveaux régimes de communication (forums, messages instantanés, réseaux sociaux, etc.), de savoir (nouvelles conditions de production, de validation et de transmission), et de mémoire (capacités de stockage, traitement des archives, etc.) ; en d’autres termes, il engendre une culture à part entière (Doueihi, 2011).

Qui plus est, le numérique renouvelle la question du corps. Alors que le milieu – qu’il soit ambiant, technique ou intérieur – a toujours été posé à partir d’une pensée du corps, le milieu numérique dépasse la dialectique dedans / dehors, ouvert / fermé traditionnelle. Il introduit un rapport à un corps aussi organique que symbolique, étendu et redessiné en permanence, dans l’ensemble des traces à travers lesquelles il manifeste sa présence (publications, parcours de navigation, etc.), et des lieux au sein desquels il s’éprouve en entrant en relation avec d’autres corps (forums, plateformes, réseaux sociaux, etc.). À la fois textuel, discursif, social, imagé, il devient en somme un corps hybride, issu du dialogue complexe entre le code informatique et les pratiques des utilisateurs.

Considéré de la sorte, le numérique se situe dans le prolongement du « milieu technique » intermédiaire tel que le définit Leroi-Gourhan (1995), c’est-à-dire à la fois artificiel et culturel. Mais il ne se limite pas à une fonction médiatrice. Il apparaît plutôt comme un milieu alternatif, second. Un milieu également ambiant, pourvu d’un sol (myriade de sites à habiter, à explorer, à bâtir) et d’un climat (pensé sous forme de flux et d’interactions constantes). Bien entendu, ce milieu numérique n’est pas détachable du monde : les espaces communs, sociaux, culturels et politiques qu’il crée, les actions et les usages qu’il engage, les biens matériels et symboliques qu’il transforme, se situent en interaction constante avec l’environnement et la société dans lesquels l’homme se trouve. Il est plutôt mi-lieu, à savoir lieu intermédiaire au sein duquel l’homme peut négocier les formes de sa présence ; mi-lieu dans lequel il rejoue, ramené à ses proportions, son rapport au monde.

Si donc, pour reprendre l’expression de Bouchardon et Cailleau (2018), il y a « co-constitution » de l’homme et du numérique, c’est, nous semble-t-il, par ces interactions qui font du numérique un milieu de flux, relationnel, sans dehors ni dedans ; un milieu dynamique qui est constitué par les pratiques humaines qu’il rend possible, et au sein duquel l’homme lui-même se constitue corporellement, socialement, culturellement. La notion de « milieu numérique » permet de penser le numérique comme un lieu parcourable, co-habitable, où l’homme peut, selon la formule de Deleuze, « cesser de se penser comme un moi, pour se vivre comme un flux, un ensemble de flux, en relations avec d’autres flux, hors de soi et en soi » (Deleuze, 1993, p.68).

Références :

Serge Bouchardon et Isabelle Cailleau, « Milieu numérique et “lettrés” du numérique », Le français aujourd’hui 2018/1 (N° 200), p. 117126. URL : https://www.cairn.info/revue-le-francais-aujourd-hui-20181-page-117.htm

Gilles Deleuze, Critique et Clinique, Paris, Minuit, 1993.

Milad Doueihi, « Un humanisme numérique », Communication & langages, 2011/1 (n° 167), p. 315. URL : https://www.cairn.info/revue-communication-et-langages1-20111-page‑3.htm

Tim Ingold, Une brève histoire des lignes, tr. par Sophie Renaut, Paris, Zones sensibles, 2011.

André Leroi-Gourhan, Le Geste et la Parole II. La mémoire et les rythmes [1965], Paris, Albin Michel, 1995.

Marine Riguet, « Le numérique, milieu macranthrope », Implications philosophiques, novembre 2019.

Le terme open traduit en français par ouvert ou libre est un adjectif employé aujourd’hui pour désigner un ensemble de pratiques et de mouvements (open source, open data, open gov, open access) visant à intégrer plus d’ouverture, de partage, de transparence, de collaboration dans des milieux numériques.
L’usage de ce terme en anglais remonte à plusieurs siècles avec par exemple les notions d’open house ou d’open air employés au quinzième siècle  pour faire référence à des ressources qui ne sont pas détenues de façon privée mais qui appartiennent à tous. Ce qualificatif a connu un regain d’usage et d’intérêt au XXIème siècle avec le développement des logiciels free, libre et open source (FLOSS) dans le domaine informatique. La popularité du qualificatif open est à rattacher à la notion de free à entendre comme libre (et non gratuit). En effet, 4 libertés données aux utilisateurs/rices de logiciels sont à rattacher initialement à ces deux termes : le droit d’exécuter un programme, le droit de le modifier (ce qui nécessite l’accès au code source), le droit de le redistribuer avec le choix de faire payer ou non, puis le droit de distribuer ces nouvelles versions pour que la communauté en bénéficie.

Par la suite, les principes de libertés d’usage concernant le code source (open source) et le développement de logiciels se sont déployés et ont été revendiqués dans d’autres domaines et sphères d’activités notamment pour des services publics (santé, éducation, citoyenneté). C’est ainsi qu’un ensemble de mouvements au départ militants se sont structurés avec comme demande la libre circulation de l’information et de son partage dans une visée démocratique, de transparence, de redevabilité de l’État (open data/gov) ou encore de retour à des idéaux de partage et d’accès à la connaissance universelle (open education/open access). Ces demandes incluent des considérations d’ordre technique et juridique. L’ouverture des données publiques et/ou d’intérêt général (open data) implique par exemple une mise à disposition des données avec des licences libres et/ou ouvertes dans des formats ouverts, facilitant l’interopérabilité et la réutilisation aussi bien par des machines que par des humains.
Si l’open était au départ associé à des discours militants, son institutionnalisation et son cadrage notamment par un ensemble de textes de loi (loi République numérique en France en 2016) et directives (open data en Europe en 2019) donne une toute autre dimension à l’open et représente de nouvelles obligations de conformité pour différentes organisations (instituts publiques, entreprises, collectivités, etc.). Pour saisir les nuances de l’open aujourd’hui, il est important de considérer cette notion comme une formule, c’est-à-dire un terme employé par toutes et tous mais dont les tensions et conflits associés pour la mise en oeuvre de cette ouverture révèlent des conceptions et des visions politiques différentes sous-jacentes. Dans les discours sur l’open, on retrouve en effet un gradient d’implication politique et de visée transformatrice. L’open peut ainsi à la fois représenter pour des organisations une adaptation de leur cadre économique, technique, organisationnel pour répondre aux politiques publiques (open data, open science) et également adopter de nouvelles modalités de valorisation (économie de la donnée, mutualisation et logique d’usage.).L’open  est aussi associé à un imaginaire socio-politique fondé sur la métaphore d’une société informationnelle (libéralisme informationnel) rendu possible par le développement d’Internet et la mise en oeuvre de gouvernances ouvertes/Peer2Peer et le dépassement des dichotomies habituelles public/privé (notion de communs). L’étude des discours et pratiques sur l’open offre ainsi une fenêtre d’analyse sur les dynamiques entre individus, collectifs et environnements numériques et les manières dont les technologies de l’intellect transforment nos rapports aux mondes et nos modes d’être et d’agir.

Broca, Sébastien. 2013. Utopie du logiciel libre. Neuvy-en-Champagne: Le Passager Clandestin.

Goëta, Samuel. 2016. « Instaurer des données, instaurer des publics : une enquête sociologique dans les coulisses de l’open data ». Paris: Télécom ParisTech. https://pastel.archives-ouvertes.fr/tel-01458098/document.

Gruson-Daniel, Célya. (2018). « Chapitre 1 – Open : Les Différentes Facettes Du ‘Numérique’ ». In Numérique et Régime Français Des Savoirs En~action : L’open En Sciences.  Le Cas de La Consultation République Numérique (2015). https://zenodo.org/record/1491292#.W_e8BZNKiAw et https://phd-cgd.pubpub.org/pub/facettes-numerique-fr.

Ibekwe-Sanjuan, Fidelia, et Françoise Paquienséguy. 2015. « Open, Big, Collaboration : trois utopies de l’innovation au 21e siècle ». In Big data Open data. Quelles valeurs ? Quels enjeux ?, édité par Ghislaine Chartron et Evelyne Broudoux, 15‑30. Louvain-La-Neuve: De Boeck. https://hal.archives-ouvertes.fr/hal-01271656.

Kreiss, Daniel. 2015. « The Problem of Citizens: E‑Democracy for Actually Existing Democracy ». Social Media + Society 1 (2): 1‑11. https://doi.org/10.1177/2056305115616151.

Loveluck, Benjamin. 2012. « La liberté par l’information. Généalogie politique du libéralisme informationnel et des formes de l’auto-organisation sur internet ». Paris: École des Hautes Etudes en Sciences Sociales (EHESS).

Pomerantz, Jeffrey, et Robin Peek. 2016. « Fifty Shades of Open ». First Monday 21 (5). http://firstmonday.org/ojs/index.php/fm/article/view/6360.

Par opposition à l’« argentique », le « chimique » ou l’« analogique » – du côté des théories anglo-saxonnes –, l’adjectif « numérique » est à présent adjoint au substantif « photographie », comme de soi. L’évidence que manifeste cette terminologie occulte une opposition et parfois une vision téléologique de l’image photographique contemporaine. Le « numérique » viendrait à la fois créer une rupture par rapport à la « photographie ancienne », et une déclinaison moderniste de cette dernière. Les théories photographiques, notamment en sémiotique[1], ont longtemps contribué à créer ce double jeu, en partant notamment du processus technique qui différencierait, selon elles, les deux procédés[2]. Reproduction pour le premier – donc authenticité du signe indiciaire, trace du réel existant mais passé – et représentation dans le second cas – reflet mimétique certes, mais emprunt aux modifications/retouches du processus technique implémenté[3]. D’un côté, une photographie authentique, le « ça-a-été[4] » barthésien marqué par la « vérité » des photons de lumière soi-disant révélés par la pellicule aux sels d’argent ; de l’autre côté le « ça peut être[5] » des photons, à présent traduits en langage binaire et nous éloignant par couche – le « code », dans ce cas – du réel. 

L’important n’est pas de nier cette distinction, mais plutôt de reconsidérer cette vision ontologique à l’aune de régimes de croyance à la fois temporels, communicationnels et sémiotiques. C’est pourquoi, nous pouvons les définir selon des caractéristiques et un imaginaire technique, un savoir latéral et des parcours interprétatifs distincts, comme énoncés dans le tableau suivant :

Figure 1 : Régimes de croyance photographique, des imaginaires techniques aux pratiques de réception sémiotique

  Photographie chimique Photographie numérique
Caractéristiques techniques (à l’origine des régimes de croyance)   Empreinte photonique    Codage numérique 
Imaginaire technique Expérience et manipulation  Abstraction symbolique et automatisme 
Traduction sémiotique : le savoir latéral Indice Icône
Parcours interprétatifs possibles[6] Trace, attestation, témoignage  Monstration, manipulation (retouches), simulacre 

Penser la photographie numérique, c’est donc penser en termes de généalogie. Si ces régimes peuvent s’opposer, ils se rejoignent pourtant à différents niveaux du processus et ne sont mus que par des parcours sémiosiques à resituer constamment en contexte communicationnel. La photographie numérique peut se réapproprier le discours indiciaire en le replaçant à d’autres niveaux de pertinence du processus interprétatif. Sur les réseaux sociaux par exemple, l’Agence France-Presse reconstruit ce parcours perdu de l’indice par le numérique, en élaborant ce que l’on peut appeler des tactisignes[7]. Autrement dit, des signes identifiés comme des « tactiques[8] » élaborées par l’AFP pour contourner la réécriture des dispositifs numériques, et produire de nouveaux modes de croyance sémiotique, fondés sur l’autorité indexicale et la ré-institutionnalisation de l’image de presse par le texte – la réinscription du logotype de l’Agence directement sur l’image notamment. 

Ensuite, il est difficile de réduire la photographie numérique à son seul mode de capture. La photographie numérique c’est aussi de la photographie « numérisée ». Par des techniques de reproductions nouvelles – telles que le scannage –, le numérique déjoue le régime de croyance argentique puisqu’il peut se le réapproprier, dans une forme de « transformation créative[9] », en lui offrant ainsi les qualités du « plastigramme[10] » et de la dissémination des différents codes. Les applications telles que Instagram, Hipstamatic ou encore Pomelo, pour ne citer qu’elles, proposent en effet de récupérer les codes plastiques de l’argentique aux moyens de « filtres », sépia par exemple, jusqu’à en détourner certains effets tels que le « grain » ou le « vignettage »[11] pour se les réapproprier sur le plan textuel. La photographie numérique et numérisée est donc une photographie de la circulation et de la « ritournelle médiatique[12] », une photographie qui se « déterritorialise[13] » en milieu numérique et peut permettre à l’usager de se la réapproprier au moyen du geste « copier/coller », de la retouche et du commentaire. Dans ces cas-là, elle est parfois définie comme « conversationnelle » ou « partagée[14] ». Ensuite, on peut à la fois la définir comme une technique et une « culture[15] ». En ce sens, elle est un « objet culturel vécu[16] » sujet à la mondialisation des codes culturels[17] et des styles énonciatifs, jusqu’à la rééditorialisation d’archives photographiques[18]. Ses terrains sont donc multiples : des techniques de capture, des réseaux sociaux, des sites, aux banques d’images en passant par les applications mobiles. Mais son ancrage méthodologique est toujours le même et pose toujours les mêmes questions : quel régime de croyance ? Quelle traduction sémiotique ? Quel trajet communicationnel ? Pour quelles significations ? À la croisée des régimes, la photographie numérique est donc un objet culturel polychrésique[19].

Figure 2 : Conclusion

Photographie numérique/numérisée
Combinaisons sémiotiques Icône-indiciaire (le plus souvent les deux régimes se croisent et se renforcent ainsi dans leur croyance)
Instance communicationnelle Circulation créative (dissémination, manipulation, réappropriation)

[1] Citons en exemples Henri Van Lier, Roland Barthes, Philippe Dubois et Rosalind Krauss. 

[2] Pierre Barboza, 1996.

[3] Voir plus spécifiquement cette distinction dans « Pour une sémiosis du devenir photographique : du régime chimique au régime numérique », Maxime Fabre, 2019.

[4] Roland Barthes, 1980.

[5] Edmond Couchot, 1988.

[6] À partir de Jean-Marie Schaeffer, 1987.

[7] Maxime Fabre, 2018.

[8] Michel de Certeau, 1980.

[9] Yves Jeanneret, 2008.

[10] « Mode de reproduction du texte médiatique qui, à la différence de la copie manuscrite ou du clichage imprimé, ne reproduit pas un objet particulier mais ses formes, et peut donc se disséminer dans une infinité de textes différents », dans Yves Jeanneret, 2014.

[11] Ces effets sont tous trois considérés, pour la photographie chimique, comme les aléas négatifs des réactions des procédés et produits utilisés : le sépia est la couleur d’une pellicule périmée ; le grain : d’une exposition à la lumière trop faible ; et le vignettage : un objectif trop petit pour la pellicule, ou d’un pare-soleil trop petit pour l’objectif.

[12] Maxime Fabre, op. cit.

[13] Gilles Deleuze et Félix Guattari, 1980.

[14] André Gunthert, 2014 et 2015.

[15] Milad Doueihi, 2013.

[16] Maria Giulia Dondero et Pierluigi Basso Fossali, 2011.

[17] Dominique Ducard 2010 et Adeline Wrona, 2014.

[18] Michael Palmer, 2007.

[19] Yves Jeanneret, ibid.

Plateforme / Plateformisation

Le terme de « plateforme » peut d’abord s’approcher par ses usages dans la rhétorique promotionnelle d’acteurs de l’industrie de la technique et des réseaux. Il leur permet alors d’articuler différentes significations auprès de différents publics. Ainsi, selon les les espaces où ces entreprises choisissent de communiquer, « plateforme » renvoie à un modèle de développement en informatique, au soutien à la parole publique (la platform au sens d’estrade, cf. Cardon & Casilli, 2015), ou à la promesse de nouvelles opportunités économiques. 

L’intérêt du terme tient ainsi à ce qu’il permet de neutraliser les tensions susceptibles d’apparaître entre les différents publics des entreprises (Gillespie, 2010). « Plateforme », connotant une certaine absence de relief, tend également à euphémiser leur part « d’intervention » : encadrer et orienter la communication, donner des contours à l’espace public, par la hiérarchisation ou l’invisibilisation de certaines formes d’activités et de certaines productions (Gillespie, 2015).

Pour Nick Srnicek (2019), qui s’inscrit dans une perspective d’histoire économique, « le capitalisme de plateforme » renvoie moins à un discours qu’à un type d’entreprise spécifique qui s’est imposé comme une solution dans un contexte de baisse de productivité et de disponibilité de capitaux financiers. Les plateformes sont alors « des infrastructures numériques qui permettent à deux ou plusieurs groupes d’interagir et qui agissent comme intermédiaire » ; « qui proposent une série d’outils aux usagers pour produire leurs propres produits » ; «  qui produisent et reposent sur des effets de réseaux » ; qui déploient une vaste gamme de tactiques pour s’assurer un afflux constant de nouveaux utilisateurs, dont le financement croisé ; qui « sont conçues en vue de séduire des clientèles variées » ; qui possèdent des logiciels et des équipements informatiques comme les serveurs construits sur la base de codes sources libres. 

Au-delà de cette liste de trait, leur caractéristique principale serait qu’elles fonctionnent comme « des dispositifs d’extraction de données ». Cette caractérisation s’accompagne d’une typologie en cinq « types » : 

  • plateformes publicitaires comme Google Search,
  • plateformes nuagiques qui reposent sur la location d’équipements,
  • informatiques et de logiciels propriétaires (Amazon Web Services),
  • plateformes industrielles qui transforme les biens en services (GE, Siemens),
  • plateformes de produits qui utilisent d’autres plateformes pour transformer les marchandises traditionnelles en services dont elle dégage des frais de location ou souscription (Rolls Royce, Spotify),
  • plateformes allégées qui profite de la valorisation des données pour réduire leurs actifs au minimum (Uber, AirBNB).

Cette typologie interroge néanmoins sur son périmètre, et sur la spécificité ou la nouveauté de ce qu’elle recouvre : par exemple, les grandes radios ont déjà depuis longtemps profité des effets de réseau dans un marché biface, réalisant des statistiques des publics (« extraction de données ») de manière relativement systématique pour vendre des « publics marchandables » (commodity audience, cf. Smyrthe, 1981) à des annonceurs. 

Pour caractériser ces entreprises et leurs produits, d’autres auteurs inspirés par les recherches anglo-saxonnes sur les médias et la sociologie des sciences et techniques (Helmond, 2015  ; Plantin et al., 2016) font plutôt valoir l’importance de la notion de « programmabilité ». La circulation de cette logique, accolée ou non au terme plateforme, passe notamment par :

  • la stratégie de Microsoft et les conceptions du fondateur de Netscape, Marc Andreessen, au début des années 1990,
  • la promotion de l’interconnexion des sites et logiciels comme services  par Tim O’Reilly en 2005,
  • les textes de management qui penser l’interface entre un « noyau » organisationnel peu modulable et des composantes très modulables de façon à favoriser l’innovation (Baldwin & Woodward, 2008),
  • les travaux de recherche sur les consoles de jeux vidéo (Montfort, Bogost, 2009). 

La programmabilité intervient en particulier dans les API (application programming interface). Ces outils associés à la plupart des sites, logiciels et services désignés comme plateformes incitent des usagers tiers, en particulier les développeurs informatiques, à construire des produits ou des services à partir d’une première couche technique conçue pour favoriser l’interopérabilité et les mash-ups. Les API sont ainsi un exemple d’un processus de « plateformisation » qui suppose que les entreprises renoncent à « internaliser les environnements par l’intégration verticale », afin de favoriser les initiatives de leurs partenaires. Cette approche, qui vaut par exemple pour les éditeurs de services de vidéo à la demande, a pour conséquence des contraintes telles que des mises à jour constantes imposées, le verrouillage (lock-in) des utilisateurs, et l’inscription de fonctionnalités spécifiques et de valeurs politiques par le design. 

Une approche par la programmabilité encourage également l’étude comparative des stratégies d’entreprise pour comprendre le degré d’ouverture des outils fournis à leurs publics, le schéma des flux de données (centrifuges-centripètes), et leur modularité comme organisations. Des travaux récents ont par exemple fait apparaître comment Spotify reposait sur une pyramide de brevets, de flux de données et de logiciels appartenant à des entreprises tierces (Erikson et al., 2019). Cette approche invite également à resituer les acteurs et objets en question dans la perspective des recherches en sciences sociales sur l’histoire longue des infrastructures, les conditions de leur invisibilité et de leur fiabilité, et leur rapport à la régulation par les Etats.

D’un point de vue communicationnel, on peut remarquer une affinité entre les caractéristiques imputées aux « plateformes » et des propositions socio-économiques relativement courantes dans une diversité de discours et de courants de recherche. Il s’agit par exemple de la tendance à situer la valeur économique du côté de la « circulation » plutôt que de la « production », ou à accorder le primat à « l’information » (devenue « données ») par opposition à d’autres ressources (travail humain, usines, capital financier). Par ailleurs, les discours qui concernent la « société de l’information » (Curien, Muet, 2004), de « réseaux » (Castells, 1998), ou encore l’avènement du « travail immatériel » (Lazzarato, Negri, 1991), parmi d’autres, semblent précéder et préparer la mise en discours et la conceptualisation du terme « plateforme ». 

Ce constat invite à considérer que dans les années 2010, le terme « plateforme » prend place au sein d’une formation discursive (Foucault, 1966) puisqu’il fait lui-même l’objet d’investissements participant d’une « économie de la promesse » (Bullich, 2016). Cette formation discursive suppose de prendre en considération les temporalités croisées de l’innovation technique, médiatique, économique et symbolique, et notamment les effets des discours et des recherches académiques sur la façon dont elle se construit et dont elle est comprise. Un certain nombre théories académiques concernant « l’intermédiation », « l’infomédiation » et le « courtage informationnel » précédent en effet la popularisation du terme « plateforme »dans les médias comme dans la recherche (Allen, Santomero, 1997 ; Ordanini, Pol, 2001 ; Benghozi, 2003 ; Curien, Fauchart, 2003 ; Moeglin, 2005 ; Boure, Smyrnaios, 2006 ; Beuscart, 2007). 

La référence aux « plateformes » peut dès lors être considérée comme une manière de discuter, dans les milieux professionnels comme académiques, du caractère plus ou moins structurel/déterminé (voir la discussion de la notion de « modèle » en économie politique, Perticoz, 2012) ou tactique/plastique (Jeanneret, 2014) du fonctionnement économique de certaines entreprises. Elle conduit également à interroger la place qu’occupe l’incertitude sur les débouchés de marché (market fit) dans leurs stratégies de valorisation auprès des investisseurs financiers (dont les sociétés de capital-risque), ainsi que la question du prolongement ou du dépassement des logiques du capitalisme industriel (Marx, 1872 ; Wark, 2019), du retour aux logiques du métayage (Bullich, 2016) ou à la proto-industrialisation (Heuguet, 2018). 

Enfin, pour analyser les produits et les services convoqués sous le nom de « plateforme » en tenant compte de la dialectique entre l’économie et le discours sur l’économie, une partie des chercheurs en sciences de l’information et de la communication préfère parfois recourir à des concepts mettant l’accent sur la dialectique entre matérialité et symbolique, comme « outils-marques », « réseaux d’échange micro-documentaires » (Jeanneret, 2014) ou « dispositifs médiatiques » (Heuguet, 2018). Ces concepts visent à faire apparaître comment des ressources logistiques (ingénierie des supports et des réseaux) et sémiotiques (mise en forme des signes et des « données ») permettent d’industrialiser des pratiques – professionnelles ou ordinaires, intimes ou publiques – et de préempter ou de capter les activités de médiation sociales ou marchandes. Les entreprises qui possèdent des infrastructures de communication ou qui éditent des produits technologiques passent par la production de discours d’accompagnement et d’enrôlement (Bullich, 2015) et par des formats d’inscription et de visibilité qui suscitent, contraignent et encadrent les pratiques (Badouard, Mabi, Sire, 2016) : celles-ci sont ainsi transformées en signes (« vues », « likes », « données », « matchs », « course », etc.) qui sont accumulés, réinterprétés et valorisés pour mieux valoriser les entreprises elles-mêmes.

La notion de plateforme peut se définir, de manière très générale, comme un dispositif technique assurant la mise en relation d’au moins deux catégories d’agents (offreurs/contributeurs et demandeurs/utilisateurs), par un « chef d’orchestre », pivot de cette mise en relation [adapté de Cardon 2019]. Reformulée en intégrant leur dimension économique, les plateformes, ou « biens plateformes », se réfèrent à des marchés multifaces qui articulent des « blocs de marchés », offres et demandes, qui lui sont extérieurs. 

Le modèle des plateformes précède l’avènement de notre milieu numérique contemporain. Le modèle de la grande distribution illustre par exemple bien ce déploiement d’un dispositif assurant la rencontre entre une demande dispersée de consommateurs et d’une offre hétérogène de producteurs. De même, le modèle économique historique de la télévision assure bien la mise en relation entre la demande des téléspectateurs et l’offre d’annonceurs publicitaires. Ces plateformes d’intermédiation existent donc « en dehors » des écosystèmes numériques. 

Cependant, les plateformes tendent à être les dispositifs techniques privilégiés constituant actuellement ce milieu numérique, transformant / agrégeant les contributions individuelles et dispersées des agents en une sorte d’intelligence ou d’utilité collective. Cette production d’utilité collective ouvrirait possiblement la voie vers de nouveaux modèles économiques : économie collaborative ou économie du partage. Or, associer ces modèles économiques aux plateformes procède d’un raccourci négligeant les différentes finalités de ces dispositifs, notamment économique. Si certaines plateformes visent la construction de biens communs, dans le sens où elles redistribuent l’intégralité de cette utilité collective aux internautes (par exemple Wikipedia ou les logiciels libres), d’autres ne la restituent que partiellement, en captant ou marchandisant au moins une partie pour leur propre bénéfice (le modèle GAFA). 

Ainsi, les plateformes ne sont pas une spécificité de notre milieu numérique. Nous pouvons alors nous interroger sur ce qui fait la singularité de ces plateformes numériques, partant du constat que cette singularité ne relève pas non plus nécessairement d’une « nouvelle économie », ouverte, non marchande, désintermédiée, tant le modèle des plateformes se déploie dans des formes hybrides entre modèles génératifs (tournés vers la production collaborative de biens communs) ou extractifs (tournés vers la captation de valeur produite par les internautes). 

Cette singularité tient à un ressort spécifique des activités et de l’économie numérique : l’effet réseau. Par effet réseau, nous entendons le lien qui existe entre utilité d’un service et le nombre de ses utilisateurs. Caractéristique de l’économie numérique, cet effet réseau traduit ainsi l’utilité accrue d’un service par l’augmentation de son nombre d’utilisateurs, de manière directe ou indirecte. Effet réseau direct dès lors que l’utilité d’un service dépend directement de son nombre d’utilisateurs, à l’image des réseaux sociaux par exemple. Effet réseau indirect dès lors que le nombre croissant d’une catégorie d’agents induit la croissance d’une autre catégorie d’agents. Par exemple, sur Amazon, la fréquentation par un nombre croissant de consommateurs sur les places de marché induit une attractivité plus forte pour les vendeurs, qui contribuent par là même à renforcer la qualité du service (par la diversité de l’offre). Activer ces effets réseau devient alors la priorité stratégique des acteurs qui souhaitent se déployer dans ce milieu numérique : augmenter sa base d’utilisateurs, augmenter son périmètre de captation d’attention, élargir l’audience… Autant d’activités clés au cœur du modèle des plateformes numériques, que nous pouvons associer à deux spécificités.

La première est que, sur les plateformes numériques, le dispositif communicationnel ou les services d’intermédiation deviennent premiers. L’utilité collective reposant sur l’intensité et la qualité des interdépendances entre acteurs, c’est dans l’intermédiation entre ces acteurs que se crée cette valeur par le réseau. Cette primauté de l’intermédiation se traduit par un positionnement renouvelé du dispositif communicationnel dans la logique productive. Là où précédemment il se concevait comme un moyen pour développer et intensifier l’échange de produits, il devient sur les plateformes numériques une production économique en tant que telle. On comprend alors la cohérence d’une logique productive dans laquelle les moyens de production des produits (les logements pour Airb’n’b, les véhicules et les chauffeurs pour Uber…) restent très majoritairement extérieurs à la plateforme et pour laquelle les services proposés ont pour finalité l’agrégation d’utilisateurs/contributeurs.

La seconde spécificité dérive de la première, de la primauté du dispositif communicationnel. Là où celui-ci vise, classiquement, à « attacher » les agents aux produits, son rôle évolue sur les plateformes puisqu’il vise désormais prioritairement à « attacher » les différents acteurs de l’échange, stimuler et dévoiler les interdépendances porteuses de cette utilité collective recherchée. Faire émerger les meilleurs appariements entre offreurs et demandeurs, susciter la « confiance » entre agents et dans la plateforme. L’usage intensif des données devient alors le cœur de l’activité productive : inciter à la production de données, les collecter puis les agréger, les analyser à l’aide d’algorithmes sont le cœur de compétences de ces plateformes, au-delà de toute production de service, déléguée à la communauté d’utilisateurs constituée. 

Ainsi, sans en être exclusives, les plateformes se singularisent cependant dans ce milieu numérique en renversant la place du dispositif communicationnel dans la logique productive : de second, ou de moyen, il devient premier, ou une fin, afin de catalyser la production d’utilité collective pour ensuite potentiellement pouvoir la capter et la valoriser. 

Références :

Callon, M. (2017). L’emprise des marchés. Paris : Ed. La Découverte

Cardon, D. (2019). Culture numérique. Paris : Presses de Sciences Po.

Rochet, J. C., Tirole, J. (2003). « Two-sided markets: an overview. », Journal of the European Economic Association, vol. 1, no 4, p. 9901029.

Si les conditions d’exercice de la vie privée conçue comme une action en réaction à un sentiment d’intrusion (Rey, 2012) sont conditionnées par les possibilités d’action offertes par le milieu technique (Rodotà, 1974), la transformation du milieu technique par la diffusion de l’informatique en réseau entraîne une modification des conditions d’exercice de la vie privée. À l’inverse, les capacités de surveillance et de fichage s’en sont retrouvées décuplées (Vitalis et Mattelart, 2014).

La protection des données, de l’allemand « Datenschutz », est un terme qui fut inventé à la fin des années 1960 et consacré par l’adoption d’une loi de Protection des données en 1970 du Land de Hesse. Cette dernière fut adoptée en réaction au développement de l’informatique perçue comme une menace pour le droit à la vie privée et d’autres libertés fondamentales (Bennett, 1992 ; González Fuster, 2014a ; Vitalis, 1988). Contrairement à ce que ce syntagme peut laisser entendre, il ne désigne donc pas uniquement ou même prioritairement une technique de sécurité des systèmes d’information, mais une nouvelle catégorie de droit fondamental.

Le droit à la protection des données est garanti par l’article 8 de la Charte des droits fondamentaux de l’Union européenne, dans une entrée séparée du droit à la vie privé, garanti lui à l’article 7 de cette même charte. La Convention européenne des droits de l’Homme ne fait quant à elle pas la distinction. La difficulté à distinguer le contenu de ces deux droits fondamentaux est discuté dans la littérature juridique (Clément-Fontaine, 2017 ; González Fuster, 2014b).

L’instrument le plus connu du droit de la protection des données est le Règlement général de protection des données 2016/679/UE (RGPD), qui est entré en application le 25 mai 2018 dans l’Union européenne, en remplacement d’une directive de 1995. En France, la loi du 6 janvier 1978 dite loi Informatique et Libertés, modifiée depuis à plusieurs reprises, complète ce règlement d’effet direct en droit interne. La Commission nationale de l’informatique et des libertés (CNIL) y est chargée de veiller à l’application de ce corpus de règles de droit.

Le RGPD s’applique à tous les cas où des données à caractère personnel font l’objet d’un traitement en tout ou partie automatisé, ou bien ont vocation à figurer dans un fichier. Les données à caractère personnel sont définies par le RGPD comme étant « toute information se rapportant à une personne physique identifiée ou identifiable […] » (art. 4). Comme l’a rappelé à plusieurs reprises la Cour de justice de l’Union européenne, ce ne sont donc pas seulement les données qui relèvent de la vie privée en tant que telle qui sont des données à caractère personnel. En pratique, toutes les traces numériques sont des données à caractère personnel au sens de la Loi.

Pour utiliser des données à caractère personnel, un organisme doit se fonder sur une des bases légales offertes par le RGPD, comme l’exécution d’un contrat, ou d’une mission de service public. Il peut également solliciter le consentement, libre et éclairé, par opt-in, de la personne que ces données concerne. C’est ainsi que le principe juridique du droit à l’auto-détermination informationnelle se retrouve dans les dispositions de ce règlement.

En conclusion, la protection des données ne définit pas dans l’absolu un domaine informationnel privé à protéger du regard du public, mais pose le principe d’un contrôle des personnes sur les données qui les concernent (Rossi, 2019). Ce même principe se retrouve dans des projets de standards techniques du Web, comme le projet Do Not Track, qui visent à intégrer dans l’infrastructure matérielle de réseaux de communication électroniques des capacités d’action permettant aux individus de choisir les données qu’ils souhaitent ou non partager.

Bennett C.J., 1992, Regulating privacy: Data protection and public policy in Europe and the United States, Ithaca, N.Y., Cornell University Press.

Clément-Fontaine M., 2017, « L’union du droit à la protection des données à caractère personnel et du droit à la vie privée », LEGICOM, N° 59, 2, p. 61‑68.

González Fuster G., 2014a, The Emergence of Personal Data Protection as a Fundamental Right of the EU, Dordrecht, Springer.

González Fuster G., 2014b, « Fighting For Your Right to What Exactly? The Convoluted Case Law of the EU Court of Justice on Privacy and/or Personal Data Protection », Birkbeck Law Review, 2, 2, p. 263‑278.

Rey B., 2012, « La privacy à l’ère du numérique », Terminal. Technologie de l’information, culture & société, 110, p. 91‑103.

Rodotà S., 1974, « Protection de la vie privée et contrôle de l’information : deux sujets d’inquiétude croissante pour l’opinion publique », dans Questions d’ordre politique soulevées par la protection des données et des libertés individuelles, principes et perspectives. Compte-rendu du séminaire, Paris, Organisation de Coopération et de Développement Economique (OCDE) (Collection études d’informatique), p. 149‑163.

Rossi J., 2019, « L’hypothèse de la vie privée des Anciens et des Modernes », dans George É. (dir.), Numérisation de la société et enjeux sociopolitiques. Tome 1. Numérique, communication et culture, Londres, ISTE (Systèmes d’information, Web et société), p. 77‑88.

Vitalis A., 1988, Informatique, pouvoir et libertés (2e éd.), Paris, Economica.

Vitalis A., Mattelart A., 2014, Le profilage des populations: Du livret ouvrier au cybercontrôle, Paris, La Découverte, 156 p.


[1]Entrée rédigée par Julien Rossi ; julien.rossi@utc.fr .

Le numérique a désormais pénétré tous les secteurs de la médecine et de la santé, depuis la recherche biomédicale jusqu’à la prise en charge des patients en établissements de soins ou à domicile.

En recherche, le développement des technologies d’acquisition de données moléculaires massives aux différentes échelles de l’organisme, dites technologies « ‑omiques » (du type des séquenceurs à ADN de nouvelle génération, des microarrays à très haute densité ou des spectromètres de masse très haut débit – autant de technologies qui génèrent quantité de données numériques), ainsi que le développement de la bioinformatique qui a pour tâche de conférer une signification biologique et médicale à ces données en grand nombre, a conduit à la notion de médecine personnalisée ou de précision. 

En amont de la production de ces données numériques, les biobanques ont pour mission de fournir aux laboratoires de recherche des échantillons biologiques de très haute qualité, afin que les chercheurs puissent identifier et valider des biomarqueurs d’intérêt diagnostique, pronostique, pharmacogénétique ou de suivi thérapeutique. Or là encore, ces échantillons biologiques, pour être utilisables en recherche, doivent être associés à des données numériques portant mention des caractéristiques biologiques et psychosociales des donneurs, ainsi que des données de traçabilité des échantillons eux-mêmes. 

Le développement des technologies « ‑omiques » et de la médecine des systèmes fait espérer la possibilité de mieux intégrer tous les niveaux de complexité de l’organisme dans des modèles multi-échelles, selon une vision à forte prétention holistique : loin de réduire la personne à son génome, comme elle a été accusée de le faire dans les années 2000, la médecine personnalisée et de précision entend désormais identifier et caractériser dans leurs moindres détails les mécanismes expliquant l’effet, sur la santé d’un individu, de tout ce à quoi il est exposé tout au long de sa vie. L’ambition en la matière est d’être le plus exhaustif possible : polluants divers, styles de vie (alcool, tabac, etc.), mais aussi stress, bruit, champs magnétiques, conditions socio-économiques, normes sociales en vigueur – autant de facteur qui peuvent affecter la santé d’un individu s’il y est exposé. Impossible de continuer à séparer le patient comme corps-objet à soigner (cure), et le patient comme sujet dont il faut prendre soin (care) : tous les aspects qui sont supposés définir le sujet en société ont semble-t-il vocation à entrer dans le domaine de compétence de cette médecine potentialisée par les technologies « ‑omiques ».

Le numérique est aussi en passe de transformer les pratiques médicales les plus diverses : arrivée des technologies génomiques en routine clinique (voir le plan France Génomique 2025), imagerie médicale potentialisée par l’Intelligence Artificielle, télé-chirurgie et robotique chirurgicale, reconfiguration des parcours de soins autour du dossier médical partagé, ou personnalisé (DMP), télé-consultations, télé-soin pour la prise en charge des patients à domicile – autant d’illustrations de l’irruption massive du numérique dans le soin. 

Les nombreuses technologies relevant du quantified self, c’est-à-dire de l’automesure par tout un chacun, en continu et en dehors de tout cadre médical, d’un large spectre de paramètres biologiques, ainsi que l’essor des tests de génomique en ligne (direct to consumer genetic testing), témoignent également d’une extension sans précédent du numérique dans le rapport des citoyens à leur propre santé. 

Or, toutes ces évolutions vers la big data medicine, l’e‑santé et la santé connectée, touchent aux aspects les plus essentiels de la fabrique des connaissances biomédicales, de la formation des médecins et de la pratique même de la médecine. Peut-on dire par exemple que la science, désormais, peut se passer d’hypothèses et attendre des données moléculaires accumulées, stockées dans de gigantesques bases de données, qu’elles finissent par « parler d’elles-mêmes », dès lors qu’elles sont soumises à un traitement statistique pertinent  – autrement dit, peut-on parler de science sans a priori et de data-driven science dans le domaine biomédical ? Peut-on parler de la fin de la médecine anatomopathologique, ou médecine des organes, au sens où les maladies sont destinées à être définies non plus en termes de lésions organiques, mais en termes de signature moléculaire ? Comment la médecine personnalisée et de précision, étendue à tous les niveaux de complexité de l’organisme et à la prise en compte des multiples facteurs d’expositions environnementales, est-elle amenée à s’articuler à l’épidémiologie et aux problématiques de santé publique ? Peut-on craindre que demain, le médecin confiera à des algorithmes les activités qui font l’essence même de sa pratique : poser un diagnostic, formuler un pronostic, proposer une option thérapeutique adaptée au patient ? Comment former les nouvelles générations de médecins à ces nouveaux outils ? 

Référence :

Guchet X. La Médecine personnalisée. Paris, Editions Les Belles Lettres, 2016.

Une smartfiction[1] est une fiction à lire voire à agir sur son smartphone. L’enjeu est de comprendre comment le support smartphone permet un nouveau genre de jeu entre le réel et la fiction (notifications, géolocalisation…), ou comment il déplace ce jeu par rapport à d’autres supports plus traditionnels.

Les smartfictions sont étudiées dans le cadre d’une thèse Cifre hébergée par l’entreprise Collectif Or Normes, qui développe un outil d’agencement et d’édition de contenu à destination des auteurs de smartfictions.

Ce format de lecture relativement récent fait événement dans l’histoire de la culture du récit, plus précisément celle de la culture de l’écriture et de la lecture sur/via écran numérique. En investissant le smartphone comme canal de diffusion, une autre façon de raconter et de lire des histoires peut émerger. En effet, avec le numérique, l’attention portée sur l’articulation entre support et narration peut sembler encore renforcée. Si le jeu entre support et contenu ne date pas du numérique, celui-ci permet parfois de rendre visible cette articulation. Les auteurs ne créent pas pour un outil ou ne se servent pas d’un outil comme matérialisation d’une idée mais ils créent avec l’outil.

“Le support conditionnant la narrativité” (Bouchardon 2005), comment la smartfiction est-elle construite pour être jouée sur un smartphone ? 

Quelles sont les prises techniques, culturelles et usuelles propres à un smartphone et qui sont réinvesties dans la production de fictions à lire sur smartphone ? Avec l’arrivée du smartphone, nous avons vu apparaître un nouveau moyen d’accéder à l’information : la notification. Ce module technique informe l’usager d’une actualisation d’un contenu. Ainsi, ce n’est plus l’usager qui va vers l’information mais l’information qui vient à lui via le système d’intrusion notifictif. Ce jeu sur la temporalité et le “temps réel” du lecteur, avec l’intrusion des notifications, est au cœur des préoccupations structurales pour conceptualiser le système smartfictif. 

Par exemple, la smartfiction Enterre moi mon amour scénarise le périple d’une jeune femme, “Nour”, qui migre vers un pays d’Europe dans l’espoir d’un avenir meilleur. Le lecteur lit cette fiction à la première personne, en incarnant le compagnon de “Nour”, “Madj”.

Lorsque le lecteur (“Madj”) est en train de communiquer avec elle via une simulation de fil de discussion type What’s app, son temps réel se superpose au temps fictionnel. Ainsi, lorsque “Nour” est en ligne, le lecteur synchronise son temps avec celui de cet environnement diégétique. Lorsque “Nour est “occupée” ou “hors ligne”, ce comportement présentiel invite le lecteur à quitter la smartfiction puisqu’il n’y a plus rien à lire. L’absence de “Nour” dans cet espace de discussion fictionnel annule la jouabilité. Le lecteur est à nouveau invité à rejoindre la conversation quand “Nour” lui envoie un message et qu’il reçoit une notifction l’invitant à rejoindre l’environnement diégétique pour poursuivre sa lecture. Ainsi, s’affichant sur nos écrans, la notification rythme nos journées. Elle fait événement dans le smartphone. La smartfiction est un récit structuré avec les modalités techniques et usuelles du smartphone, les événements composant le récit sont marqués par la notification. La notifiction est le terme que j’ai créé pour distinguer l’environnement virtuel réel (notification) et l’environnement virtuel fictionnel. Au prisme de la notifction, comment les auteurs construisent-ils les histoires smartfictives ? Comment l’intrigue est-elle construite ? Comment la narratologie fait-elle système avec la ludologie pour créer des histoires dans ce nouveau format de lecture ? 


[1] J’emploie le terme de “smartfiction” pour identifier précisément le format de lecture d’une fiction à lire et à agir sur smartphone. Il est également utilisé par une maison d’édition numérique russe qui propose au lecteur de recevoir et de lire une nouvelle littéraire par semaine, sur son smartphone. La maison d’édition numérique utilise le terme comme dépôt de marque alors que je l’utilise pour identifier un format et une pratique de lecture relative au smartphone devenant canal de diffusion d’une fiction. 

Conceptualiser la surveillance

Dans La Société Punitive (19721973) (2013) et dans Surveiller et Punir (1975), Michel Foucault décrit les contours des « sociétés disciplinaires » qui ont émergé au XVIIIe pour succéder aux « sociétés de souveraineté ». Il décrit par-là l’organisation des sociétés à économie capitaliste autour d’espaces fermés au sein desquels transitent les classes populaires au cours de leur vie, et au sein desquels il s’agit de gérer, encadrer et contrôler le plus finement possible leurs corps afin de transformer les individus en force de production. L’exercice d’un pouvoir coercitif au sein des différentes institutions de cette société disciplinaire (écoles, casernes, usine, hôpital, hospice…) est décrit par Foucault par analogie avec le modèle d’organisation panoptique des prisons tel qu’il est pensé par le philosophe utilitariste Jeremy Bentham à la fin du XVIIIe siècle. Le modèle architectural qu’il propose alors permet à un seul surveillant de surveiller une multitude d’individus incarcérés, sans que ceux-ci ne puissent (sa)voir qu’ils sont effectivement surveillés, ce qui a pour effet de leur donner l’impression de l’exercice d’une surveillance continue (Bentham, 2002).

Ces propos de Foucault sur l’organisation d’une société disciplinaire nous aident à exposer quelques orientations pour esquisser un début de conceptualisation de la surveillance. Surveiller, c’est collecter – via des dispositifs de surveillance –, accumuler et traiter des informations sur un ou des individu·s dans l’optique de constituer un savoir, alors acquis par l’observation, l’examen, l’enquête, ou encore par la réalisation de statistiques. Ainsi, la surveillance recouvre dès le XVIIIe siècle les domaines du visible et du calculable. Dans un second temps, ce savoir acquis permet l’exercice d’un pouvoir par celles et ceux qui gouvernent. Mais en même temps, c’est la surveillance en elle-même qui exerce un pouvoir sur l’individu surveillé. Le sociologue Christian Laval explique ainsi que l’individu qui se sait surveillé « reprend à son compte les contraintes du pouvoir », se les « impose », « se les fait jouer spontanément sur lui-même ». En conséquence, « la surveillance est une arme de normalisation et pas seulement de punition d’une transgression légale », elle sert à « corriger les virtualités » (Laval 2014), et ainsi à produire des normes et des habitudes auxquelles les individus cherchent à se conformer.

Une surveillance numérique radicale

Depuis ce XVIIIe siècle où la surveillance est déjà pensée comme devant être généralisée, les dispositifs de surveillance, en tant qu’ils sont des « appareils à fabriquer des disciplines, à imposer des coercitions, à faire contracter des habitudes » (Foucault 2013, p.240), n’ont cessé de se multiplier et d’être affinés. Le philosophe Dominique Quessada explique que cette radicalisation contemporaine de la surveillance généralisée est la conséquence de « l’interconnexion des technologies numériques, de la géolocalisation, de la vidéosurveillance, des bases de données, de la biométrie, de l’interception des communications ». Ce système technique fondé sur l’usage des technologies numériques permet de faire advenir une surveillance qui « présente les capacités d’adhérer en permanence à son objet » (Quessada 2014). En somme, les dispositifs de surveillance ne captent plus seulement nos comportements dans les espaces clos décrits par Foucault, mais dans l’ensemble de nos différents espaces d’existence.

Ainsi dans les espaces clos tels que les espaces de travail, les modes de surveillance ont évolué, pour s’adapter aux nouvelles formes de travail et à la recherche de rationalisation des coûts au cœur de la société néolibérale. Les dispositifs numériques ont remplacé les vigiles, les contremaîtres, les systèmes de pointage et feuilles d’émargement qui assuraient auparavant cette surveillance. Dans les « flex office », les bureaux (qui n’appartiennent plus à personnes) sont équipés de détecteurs de présence pour indiquer si les postes sont libres ou non. La société Hitachi propose depuis plus de 10 ans un « badge sensoriel » qui transmet aux employeur·euses la géolocalisation des salarié·es qui le portent. Des restaurants américains s’équipent de dispositifs de vidéosurveillance « intelligents » qui évaluent les performances des employé·es pour guider, voire automatiser le système de management[1]. Amazon a de son côté mis en place un système automatique de mesure des performances et des temps de pause de ses employé·es capable de licencier automatiquement les moins productif·ves[2]. Les exemples sont nombreux.

Dans l’espace public, des dispositifs de reconnaissance faciale se sont installés en Chine il y a quelques années. Couplé au principe de « crédit social », ce système permet de transformer les comportements des individus en une note. Les bonnes notes offrent des services (examen médical gratuit, emploi, places en maternelle…), les mauvaises en interdisent d’autres (transports en commun, accès à certaines écoles ou à certains emplois…). Depuis 2014, initialement en Grande-Bretagne, des panneaux publicitaires sont équipés de dispositifs vidéos qui analysent nos réactions afin d’adapter le contenu diffusé[3]. Les smartphones géolocalisent chaque déplacement, et des agences de marketing promettent aux entreprises de pouvoir « localiser une personne afin de la cibler efficacement[4] » pour la pousser à consommer.

Nous sommes également devenu·es, en partie au moins, les propres agents de notre surveillance. Le sujet de la surveillance « n’est pas poursuivi, mais dessine lui-même la traçabilité de ses actes – le sujet surveillé émet les signaux numériques permettant sa surveillance » (Quessada 2014). Une conséquence est le développement de formes d’autocensure de la part d’internautes cherchant à laisser moins de traces numériques risquant de se retourner à leur encontre (Rouvroy 2019). Pour caractériser les enjeux économiques et politiques liés à l’exploitation de ces traces que nous laissons, Shoshana Zuboff parle de « capitalisme de surveillance ». Elle rend ainsi compte de la marchandisation de l’ensemble de nos comportements en ligne à des fins prédictives (« behavorial prediction »), pour produire des comportements particuliers (« behavorial modification »), autant en tant que consommateur·trices qu’en tant qu’électeurs·trices. Comme l’a révélé le scandale Cambridge Analytica, nos traces peuvent être utilisées dans le but d’infléchir notre vote (Zuboff 2019).

Cette surveillance numérique généralisée est régulièrement critiquée, considérée comme une menace pour les libertés publiques, le droit à la vie privée, ou encore la liberté d’expression. Mais malgré ces critiques, des discours d’accompagnement sont produits pour la rendre légitime et justifiable. La recherche de productivité est régulièrement évoquée dans le secteur économique. La lutte antiterroriste et la question sécuritaire sont mises en avant dans le secteur politique. En France, c’est la loi relative au renseignement promulguée en 2015 qui a validé cette « radicalisation de la surveillance d’État » bien après que celle-ci a déjà été mise en place (Tréguer 2019, p249-258). Ainsi est légitimée et justifiée économiquement et politiquement cette surveillance du XXIe siècle, qui profite de multiples ressources numériques pour satisfaire son vieux projet de généralisation totale et d’orientation, de normalisation des comportements des individus surveillés, ces derniers participant eux-mêmes activement à rendre possible leur propre surveillance.

Bibliographie

Bentham, J. (2002). Panoptique. Mémoire sur un nouveau principe pour construire des maisons d’inspection, et nommément des maisons de force (Mille et une nuits.).

Foucault, M. (1975). Surveiller et punir: naissance de la prison. Paris, France, Gallimard.

Foucault, M. (2013). La société punitive: cours au Collège de France, 19721973. (F. Ewald, A. Fontana, & B. E. Harcourt, Eds.). Paris, France, EHESS : Gallimard : Seuil.

Laval, C. (2014). Foucault, la surveillance et nous. Séminaire “Politiques de Foucault,” Paris X Nanterre.

Quessada, D. (2010). « De la sousveillance. La surveillance globale, un nouveau mode de gouvernementalité ». In Multitudes, vol. 1, n° 40, p. 54–59.

Rouvroy, A. (2019). « Passer entre les mailles. Dialogue entre Antoinette Rouvroy et Alain Damasio ». In Philosophie Magazine, n° 133, p. 5862.

Treguer, F. (2019). L’utopie déchue: une contre-histoire d’Internet, XVe-XXIe siècle. Paris, France, Fayard.

Zuboff, S. (2019). The age of surveillance capitalism: the fight for a human future at the new frontier of power. London, Royaume-Uni de Grande-Bretagne et d’Irlande du Nord, Profile Books.


[1] https://www.wired.com/story/outback-steakhouse-presto-vision-surveillance/

[2] https://usbeketrica.com/article/chez-amazon-un-algorithme-vire-les-employes-pas-productifs

[3] https://theconversation.com/etude-de-cas-la-reconnaissance-faciale-integree-a-la-publicite-digitale-94382

[4] https://www.dedi-agency.com/campagnes-geolocalisees-visez-juste-en-pensant-e-commerce-et-localisation/

La notion de transmédia pose la question de la dérivation d’un contenu sur plusieurs espaces médiatiques aux caractéristiques propres. Nous l’aborderons ici à travers le prisme des contenus fictionnels : leur dérivation sur plusieurs médias pose en effet la question de l’auctorialité et des jeux de pouvoir dans la création. Toute œuvre marquée par des développements transmédiatiques implique nécessairement une forme d’association entre acteurs, et donc une délégation des droits, une négociation entre les différentes figures constituant l’environnement industriel de la culture. Au-delà des mécanismes médiatiques et narratifs que les développements transmédiatiques impliquent, cette notion permet d’interroger les différentes modalités de synergies industrielles et entrepreneuriales qui accompagnent les circulations des contenus. Etudier ces synergies, associations et frottements liés aux circulations médiatiques de la fiction implique d’interroger le devenir de la notion même de création : les fictions transmédiatiques sont en effet amenée à une remise en mouvement constante, à des évolutions et à des ajouts permanents, obtenus à la suite de négociations entre acteurs. 

Cette pensée des liens entre transmédialité et création, auctorialité, et fiction, s’ancre à la suite des réflexions de Matthieu Letourneux sur « l’énonciation polyphonique dessinant une auctorialité problématique » des œuvres transmédias. Sa pensée s’articule autour de la question des développements transmédiatiques et des évolutions industrielles et médiatiques :

« Le développement (de logiques transmédiatiques) a été favorisé dans les dernières décennies du XXème siècle par le déploiement de grands groupes culturels investissant tous les médias et multipliant les partenariats avec les industriels. L’apparition de ces acteurs s’est traduite par une mutation des pratiques. Les univers de fiction sont conçus dès l’origine pour être déployés sur tous les supports. Les concepteurs de ces stratégies globales peuvent dicter leurs conditions aux créateurs, et l’œuvre-monde apparaît comme un architexte destiné à être décliné en une série de ‘’textes’’. L’objet culturel n’est pas identifié à une œuvre, ni même à un support, mais à la somme de ses déclinaisons, à une création « transmédia » (Letourneux, 2017).

Il importe de bien distinguer des notions qui peuvent sembler proches mais dont les implications en termes de création et d’auctorialité diffèrent radicalement. Ainsi, il convient de distinguer la transmédialité de la transfictionnalité et de l’adaptation. Marie-Laure Ryan affirme par exemple que « si le transmédia est censé devenir une nouvelle forme de narration, il devrait être plus que de l’adaptation, une pratique ancienne ; il devrait raconter de nouvelles histoires ou offrir de nouvelles informations sur un monde fictionnel familier, ainsi que le fait la pratique non moins ancienne de la transfictionnalité ; et il devrait pour ce faire employer de multiples médias » (Ryan, 2017). 

Nouvelle forme narrative fondée sur l’exploitation de plusieurs médias pour l’enrichissement d’un seul monde fictionnel, la transmédialité est, dans cette perspective, le lieu idéal pour observer jeux de pouvoirs et rapports de force entre acteurs. Les recherches d’Henry Jenkins présentent l’intérêt d’étudier la place des publics dans ces circulations médiatiques et culturelles. Sa notion de braconnage culturel (Jenkins, 2014), phénomène de réappropriation et de recréation des œuvres par les « fans », parfois à l’insu de leurs créateurs et producteurs, nous permet de souligner l’émergence d’une apparente contradiction : un jeu sur les apparences de l’ouverture, de l’enrichissement, de la remise en circulation de l’univers fictionnel à travers ses circulations transmédiatiques, en réalité marquées par le verrouillage fictionnel, le remplissage des vides, la neutralisation maximale de l’incomplétude narrative et la réduction du nombre d’interprétations possibles. 

L’analyse des circulations médiatiques de la fiction nous permet ainsi de questionner l’émergence d’une fiction « ouverte et totale » ; si l’association de ces deux vocables peut sembler paradoxale, elle permet d’interroger très finement les modalités de création et de développement d’univers fictionnels transmédiatiques. Ces fictions constamment remises en mouvements et en circulations se targuent pourtant d’une forme de totalité et de complétude, dans la mesure où elles sont développées de manière à comprendre le plus de dérivations et de modalités de circulation possibles. Aborder la question des univers narratifs sous l’angle de leurs circulations transmédiatiques permet ainsi de questionner les notions de création, d’auctorialité, mais aussi, plus largement, de fiction.

Références

Henry Jenkins, « Rethinking ‘Rethinking convergence/culture’ », Cultural Studies, 2014, vol.28

Matthieu Letourneux, Fictions à la chaîne, littératures sérielles et culture médiatique, Poétique, Seuil, 2017

Marie-Laure Ryan, « Le transmédia storytelling comme pratique narrative », Revue française des sciences de l’information et de la communication, 10/2017, paragraphe 7, http://rfsic.revues.org/2548

La vie privée se déroule dans un espace physique et informationnel qui se distingue traditionnellement de l’espace public. Le droit à la vie privée a été défini par les juristes états-uniens Louis Brandeis et Samuel Warren comme étant le droit « d’être laissé tranquille » (Warren et Brandeis, 1890) dans un espace privé protégé du regard du public. Pour Fabrice Rochelandet, la vie privée recouvre à la fois une dimension de secret, de tranquillité et d’autonomie individuelle (Rochelandet, 2010). Pour Bénédicte Rey, qui s’inspire des travaux d’Irwin Altman, la vie privée est constituée d’actions prises en réaction à un sentiment d’intrusion (Altman, 1977 ; Rey, 2012).

Le milieu technique dans lequel nous vivons nous offre des capacités d’agir tout en étant un arraisonnement du futur (Bachimont, 2010). Dans cette perspective, il n’est pas étonnant de voir que les conditions de possibilité d’actions en réaction à un sentiment d’intrusion sont fonction du milieu matériel et technique. C’est ainsi que l’évolution de l’architecture a joué un rôle déterminant dans l’histoire de la vie privée (Habermas, 1988 ; Prost, 1987 ; Rodotà, 1974).

Si nous admettons que le milieu technique dans lequel nous vivons est transformé par la diffusion d’ordinateurs électroniques connectés en réseaux, dans un processus que nous pouvons qualifier de transformation numérique, il n’est guère plus étonnant de s’apercevoir que cette dernière affecte également les conditions d’exercice d’un droit à la vie privée. Ces évolutions techniques rendent entre autres possibles de nouvelles techniques de surveillance (Vitalis et Mattelart, 2014), tout en alimentant une dynamique de perte de contrôle informationnelle et un effondrement des contextes dans lesquelles des informations sont confiées (boyd, 2012 ; Klein, 2012).

Diverses études ont démontré l’existence d’un paradoxe de la vie privée : alors que les utilisateurs d’outils numériques se disent soucieux de leur vie privée, leurs usages mettraient en danger cette même vie privée (Acquisti, Ida et Rochelandet, 2011 ; Norberg, Home et Home, 2007). Comme le rappellent Dominique Carré et Robert Panico (2012), ces comportements, au lieu d’être simplement condamnés, doivent être compris dans un contexte où l’affichage de soi en ligne joue en rôle dans la construction de l’identité et de la place des individus dans la société. En outre, là où la « vie privée » a traditionnellement désigné un espace (physique et informationnel) à protéger du regard d’autrui, elle peut également désigner un désir de contrôle sur l’accès à soi et à ses données personnelles (Fuchs, 2011).

C’est cette deuxième acception de la notion de « vie privée » qui semble correspondre aux revendications contemporaines de « vie privée » en milieu numérique (Rossi, 2019). C’est notamment cette conception qui a guidé l’adoption de règles juridiques de protection des données à caractère personnel à partir des années 1970 (Bennett et Raab, 2003 ; Rossi, 2018).

Acquisti A., Ida M.F.Mb., Rochelandet F., 2011, « Les comportements de vie privée face au commerce électronique, Privacy in Electronic Commerce and the Economics of Immediate Gratification », Réseaux, 167, p. 105‑130.

Altman I., 1977, « Privacy Regulation: Culturally Universal or Culturally Specific? », Journal of Social Issues, 33, 3, p. 66‑84.

Bachimont B., 2010, Le sens de la technique: le numérique et le calcul, Paris, Belles lettres (Encre marine), 185 p.

Bennett C.J., Raab C.D., 2003, The Governance of Privacy. Policy Instruments in Global Perspective, Aldershot, Ashgate.

boyd  danah, 2012, Taken out of context: American teen sociality in networked publics, University of California-Berkeley, 410 p.

Carré D., Panico R., 2012, « L’«affichage de soi» comme «puissance d’agir». Contrôle social et enjeux éthiques à l’heure de l’hyperconnectivité », dans Proulx S., Millette M., Heaton L. (dirs.), Médias sociaux: enjeux pour la communication, Québec, Presses de l’université du Québec, p. 61‑79.

Fuchs C., 2011, « Towards an alternative concept of privacy », Journal of Information, Communication and Ethics in Society.

Habermas J., 1988, L’espace public: archéologie de la publicité comme dimension constitutive de la société bourgeoise, Paris, Payot (Critique de la politique Payot), 324 p.

Klein A., 2012, « Facebook, quand tu nous tiens », dans Proulx S., Millette M., Heaton L. (dirs.), Médias sociaux. Enjeux pour la communication, Québec, Presses de l’Université du Québec, p. 105‑116.

Norberg P.A., Home D.R., Home D.A., 2007, « The Privacy Paradox: Personal Information Disclosure Intentions versus Behaviors », Journal of Consumer Affairs, 41, p. 100‑126.

Prost A., 1987, « Frontières et espaces du privé », dans Ariès P., Duby G. (dirs.), Histoire de la vie privée. Tome 5 : De la Première Guerre mondiale à nos jours, Paris, Seuil, p. 13‑154.

Rey B., 2012, « La privacy à l’ère du numérique », Terminal. Technologie de l’information, culture & société, 110, p. 91‑103.

Rochelandet F., 2010, Économie des données personnelles et de la vie privée, Paris, Découverte.

Rodotà S., 1974, « Protection de la vie privée et contrôle de l’information : deux sujets d’inquiétude croissante pour l’opinion publique », dans Questions d’ordre politique soulevées par la protection des données et des libertés individuelles, principes et perspectives. Compte-rendu du séminaire, Paris, Organisation de Coopération et de Développement Economique (OCDE) (Collection études d’informatique), p. 149‑163.

Rossi J., 2018, « Qu’est-ce que le droit à la protection des données à caractère personnel ? », Working Paper, Geopolitics of Risk Working Papers, 1/2018, Paris, Chaire de géopolitique du risque de l’Ecole normale supérieure.

Rossi J., 2019, « L’hypothèse de la vie privée des Anciens et des Modernes », dans George É. (dir.), Numérisation de la société et enjeux sociopolitiques. Tome 1. Numérique, communication et culture, Londres, ISTE (Systèmes d’information, Web et société), p. 77‑88.

Vitalis A., Mattelart A., 2014, Le profilage des populations: Du livret ouvrier au cybercontrôle, Paris, La Découverte, 156 p.

Warren S.D., Brandeis L.D., 1890, « The Right to Privacy », Harvard Law Review, 4, 5, p. 193‑220.

envelope-ofacebook-official