sorbonne universite

Transnum

Penser les transformations du / par le numérique

Entre indus­tri­al­i­sa­tion du com­men­taire tes­ti­mo­ni­al et infra pub­lic­ité

Car­o­line Mar­ti. Pré­pa­ra­tion de la journée Transnum du 15 novem­bre 2019

Déf­i­ni­tion

Sur Inter­net, les avis désig­nent une caté­gorie dis­cur­sive quan­tifiée qui regroupe les com­men­taires éval­u­at­ifs d’internautes, à pro­pos d’une expéri­ence de con­som­ma­tion.

Ces avis cumulés sont au cœur de l’économie des plate­formes et par­ticipent au sys­tème de mise en vis­i­bil­ité, d’évaluation, de val­ori­sa­tion et de crédi­bil­i­sa­tion des offres. Pour les plate­formes, cette mise en place de dis­posi­tifs d’évaluation allant de pair avec une « indus­tri­al­i­sa­tion des com­men­taires » a un rôle essen­tiel, entre fonde­ment de la con­fi­ance et con­di­tion­nement de l’existence même de l’offre.

Une pre­mière analyse, menée dans le cadre d’une inter­ven­tion à un col­loque de l’UQAM en 2018, sur la numéri­sa­tion de la société, m’a per­mis de me pencher sur un ter­rain, celui des expéri­ences gas­tronomiques sur Tri­pad­vi­sor mais le tra­vail est à appro­fondir et éten­dre.

Les avis en tant que traces scrip­turaires d’un réc­it d’expérience invi­tent à divers­es inter­ro­ga­tions et per­spec­tives (non exhaus­tives, « work in progress ») que je présente som­maire­ment :

L’écriture

  • Com­ment l’hétérogénéité est-elle prise en charge, réduite, cor­rigée, ori­en­tée par les sites qui accueil­lent ces avis ? L’écriture est en effet encadrée et orchoestrée en par­tie en fonc­tion de critères prédéter­minés par l’énonciateur prin­ci­pal
  • Com­ment ces avis sont-ils rédigés ?  A quels gen­res dis­cur­sifs ren­voient-ils ?
    • explo­ration du genre tes­ti­mo­ni­al quand il s’exprime sur inter­net (quel régime de vérité, entre expres­sion des affects et objec­ti­va­tion des critères de l’expérience ?)
    • explo­ration de la trans­mé­di­al­ité et analyse des emprunts faits aux dis­cours médi­a­tiques pour qual­i­fi­er une expéri­ence (par exem­ple une expéri­ence culi­naire dans un restau­rant évo­quée dans les ter­mes d’un cri­tique gas­tronomique, d’un chef ou d’un ama­teur dans une émis­sion de télé-réal­ité). Y a ‑t-il un genre sin­guli­er de l’avis sur Inter­net ?
  • Quels effets de cor­re­spon­dance peut-on établir entre les dif­férents avis ? Y a‑t-il un dia­logue ou une jux­ta­po­si­tion d’expressions ?
  • Le car­ac­tère com­pos­ite des éval­u­a­tions est-il sub­sumé par une logique glob­ale de l’avis qui s’apparenterait alors à une volon­té pro­mo­tion­nelle ou dis­sua­sive, dans une per­spec­tive prag­ma­tique ?
  • Peut-on dégager une rhé­torique de l’avis ?
  • On peut par­ler d’infra-publicité pour désign­er ces pra­tiques d’amateurs médi­ati­sant des expéri­ences pour par­ticiper à un sys­tème glob­al de recom­man­da­tion de con­som­ma­tion.

Inter­pré­ta­tion des avis

  • Com­ment la poly­phonie énon­cia­tive pro­duite par ces dif­férents avis par­ticipe-t-elle à l’élaboration des représen­ta­tions d’une promesse de con­som­ma­tion ?
  • Com­ment les inter­nautes lecteurs inter­prè­tent-ils les avis dès lors qu’ils sont tra­ver­sés par une volon­té pro­mo­tion­nelle ou de dis­sua­sion, par des affects, par une objec­ti­va­tion des critères de l’expérience ?
  • Cette micro fonc­tion pub­lic­i­taire de l’ordinaire est à la fois l’extension numérisée du bouche-à-oreille tra­di­tion­nel et une modal­ité de la mise au tra­vail des con­som­ma­teurs par les inter­mé­di­aires marchands. Com­ment cette fonc­tion est-elle qual­i­fiée par les usagers ?

La vie sociale tra­vail­lée par le numérique

  • Com­ment les acteurs marchands pren­nent-ils en compte cette fonc­tion de leurs con­som­ma­teurs et cherchent-ils à les influ­encer ?
  • Com­ment la pra­tique de l’avis numérisé trans­forme-t-elle les pra­tiques sociales (je pense au choix du restau­rant qui est rarement désor­mais le fruit de l’arpentage d’un quarti­er au prof­it d’une pré-selec­tion sur inter­net)

Ques­tions méthodologiques

  • Com­ment méthodologique­ment abor­der ces com­men­taires hétérogènes en genre, qual­ités d’écriture ? Etablir des cor­pus, pro­pos­er des caté­gories pro­vi­soires (idée de cor­pus mul­ti-caté­goris­able en fonc­tion des ques­tions posées) ?
  • Com­ment analyser en récep­tion la façon dont ces com­men­taires sont abor­dés, ques­tion­nés ou sai­sis en tant qu’éléments prag­ma­tiques ?

L’écri­t­ure numérique, c’est l’écri­t­ure en milieu numérique (voir entrée “milieu numérique”). A titre d’exemples de pra­tiques d’écri­t­ure numérique, on peut men­tion­ner : écrire un cour­ri­er élec­tron­ique, pré­par­er un dia­po­ra­ma, rédi­ger un texte à plusieurs et en mode syn­chrone grâce à un out­il col­lab­o­ratif en ligne, poster un mes­sage sur un réseau social… 

L’écri­t­ure numérique est-elle une nou­velle décli­nai­son d’une réal­ité bien con­nue – l’écriture – ou une refon­da­tion à penser et à met­tre en œuvre ?  L’en­jeu est de com­pren­dre ce que fait le numérique à la notion d’écri­t­ure, et ce que l’écri­t­ure comme pra­tique per­met de com­pren­dre des poten­tial­ités et des lim­ites du numérique.

Dans le cadre du pro­jet PRECIP sur l’en­seigne­ment de l’écri­t­ure numérique (http://precip.fr), nous posons comme hypothèse que l’instrumentation de l’écriture par les tech­nolo­gies numériques trans­forme les pra­tiques d’écriture (Crozat, Bachi­mont, Cail­leau, Bouchardon, 2011). Les car­ac­téris­tiques de l’écri­t­ure nous sem­blent ain­si devoir être réin­ter­rogées dès lors que son sup­port d’in­scrip­tion devient numérique.

A la suite de Jack Goody (Goody, 2007), nous envis­ageons l’écriture comme une tech­nolo­gie qui, en inscrivant un mes­sage sur un sup­port, lui con­fère un car­ac­tère spa­tial et une péren­nité. Ces car­ac­téris­tiques tech­niques ouvrent de nou­velles pos­si­bil­ités cog­ni­tives qui trans­for­ment non seule­ment nos capac­ités intel­lectuelles mais plus large­ment notre mode d’être au monde. Autrement dit, l’écriture est une tech­nolo­gie de l’intellect qual­i­fi­able de « rai­son graphique » de par sa rela­tion au sup­port. La général­i­sa­tion con­tem­po­raine de l’usage des sup­ports numériques comme sup­ports d’inscription pose la ques­tion de leurs con­séquences sur nos pos­si­bil­ités cog­ni­tives et socié­tales. Bruno Bachi­mont pro­pose la notion de « rai­son com­pu­ta­tion­nelle » pour car­ac­téris­er les trans­for­ma­tions induites par le sup­port numérique en tant qu’il est un sup­port dynamique, cal­cu­la­ble (Bachi­mont, 2010) qui ouvre à son tour de nou­veaux pos­si­bles. 

Dans cette per­spec­tive, la notion d’« écri­t­ure numérique » est une expres­sion ellip­tique pour désign­er celle d’« écri­t­ure en milieu numérique » con­sid­érée comme une tech­nolo­gie de l’intellect rel­e­vant d’une « rai­son com­pu­ta­tion­nelle ». 

L’enjeu d’une telle approche est de pren­dre en con­sid­éra­tion l’espace des pos­si­bles et des con­traintes liées au sup­port numérique pour être en mesure de com­pren­dre en quoi et com­ment ce dernier con­di­tionne — sans les déter­min­er — nos pra­tiques d’écri­t­ure en milieu numérique. En effet, toute écri­t­ure numérique passe par la médi­a­tion d’un out­il d’écriture qui est lui-même une inscrip­tion sur un sup­port numérique. En d’autres ter­mes, tout logi­ciel d’écriture a été écrit (cf. la notion d’ ”archi­texte” de Jean­neret et Souch­i­er, 1999) et cette écri­t­ure relève de choix réal­isés dans l’espace des pos­si­bles et des con­traintes du sup­port numérique. Ces choix ont donc des con­séquences sur l’exercice de la « rai­son com­pu­ta­tion­nelle ». De manière indis­so­cia­ble, en tant que la rela­tion à la tech­nique relève d’une rela­tion de co-con­sti­tu­tion, les pra­tiques d’écri­t­ure en milieu numérique influ­ent sur les dis­posi­tifs d’écri­t­ure qui les out­il­lent.  

Ain­si, étudi­er l’écriture numérique con­siste selon nous à ren­dre vis­i­ble ce qui la con­di­tionne tech­nique­ment afin de per­me­t­tre des pra­tiques d’écriture éclairées et une analyse de ces dernières qui intè­gre le fait qu’elles soient tech­nique­ment con­sti­tuées sans pour autant être déter­minées. Cet éclairage doit en effet égale­ment per­me­t­tre de mon­tr­er com­ment en retour les pra­tiques peu­vent influer ou encore inter­roger les choix qui sont effec­tués par­mi les pos­si­bles tech­niques. La lit­téra­ture numérique con­stitue un moyen priv­ilégié pour ce faire.

Références :  

- Bachi­mont, B. (2010). Le sens de la tech­nique : le numérique et le cal­cul. Paris: Edi­tions Les Belles Let­tres, col­lec­tion « encre marine ».

- Crozat, S., Bachi­mont, B., Cail­leau, I., Bouchardon, S., Gail­lard, L. (2011). « Élé­ments pour une théorie opéra­tionnelle de l’écri­t­ure numérique », Doc­u­ment numérique, vol. 14/3–2011, Paris : Her­mès Lavoisi­er, 9–33, 

https://www.researchgate.net/publication/270159558_Crozat_S_Bachimont_B_Cailleau_I_Bouchardon_S_Gaillard_L_2011_Elements_pour_une_theorie_operationnelle_de_l’ecriture_numerique_Document_numerique_vol_143-2011_Paris_Hermes_Lavoisier_9-33

- Goody, J. (2007). Pou­voirs et savoirs de l’écrit. Trad. de l’anglais par Claire Maniez ; coor­di­na­tion par Jean-Marie Pri­vat, Paris : La Dis­pute.

- Jean­neret, Y. et Souch­i­er, E. (1999). « Pour une poé­tique de “l’écrit d’écran” », Xoana, images et sci­ences sociales6/7, éd. J.-M. Place, 97–107.

La notion d’éthique by design n’est pas un con­cept académique, et pour­tant le « by design » est une locu­tion qui devient de plus en plus usitée en par­ti­c­uli­er dans le domaine du numérique : pri­va­cy by design, atten­tion by design, ecol­o­gy by design, secu­ri­ty by design sont autant d’expressions qui imprèg­nent les dis­cours insti­tu­tion­nels, indus­triels, voire académiques. Mais d’où l’éthique by design tire-t-elle sa légitim­ité en tant que telle, et quelle est sa per­ti­nence ? Doit-on y voir un effet de mode, ou bien ce con­cept est-il représen­tatif d’un par­a­digme en train de se struc­tur­er autour d’une recon­fig­u­ra­tion des pra­tiques éthiques du design, en par­ti­c­uli­er dans le con­texte numérique ? (Fis­ch­er, 2019)

L’éthique by design est com­muné­ment assim­ilée à une éthique de la con­cep­tion. Mais elle ne s’y réduit pas. Une approche lin­guis­tique du « by design » est néces­saire, afin de démon­tr­er la mul­ti­plic­ité des approches éthiques pos­si­bles en con­texte numérique, ain­si qu’une généalo­gie de la ren­con­tre entre le design, l’éthique et le numérique pour com­pren­dre tous les ressorts pos­si­bles de cette expres­sion. Par « by design », nous pou­vons en effet enten­dre trois tra­duc­tions pos­si­bles : « par inten­tion », « par con­cep­tion », et « par médi­a­tion ».

C’est peut-être Vic­tor Papanek, design­er aus­tro-améri­cain du 20ème siè­cle qui le pre­mier men­tion­na l’idée d’une éthique by design sans la for­muler comme telle. Vic­tor Papanek fait par­tie des grandes fig­ures qui ont per­mis de théoris­er le design et ses impli­ca­tions socio-poli­tiques, notam­ment grâce à son ouvrage Design pour un monde réel, édité en 1971. Lorsqu’il affirme que le « dis­cerne­ment social et moral [du design­er] doit s’exercer bien avant qu’il ne com­mence à créer » (Papanek, 1971, p. 80), il évoque l’importance de la pen­sée éthique en amont de la con­cep­tion. Il inscrit ain­si la « respon­s­abil­ité morale et sociale du design­er » (Papanek, 1971, p.78) dans une tem­po­ral­ité bien définie. La respon­s­abil­ité du design­er com­mence par son « juge­ment » du pro­jet, et donc en quelque sorte, son inten­tion, avant tout acte tech­nique, « car il doit porter un juge­ment, un juge­ment a pri­ori, pour décider si le pro­duit qu’il doit con­cevoir, ou re-con­cevoir, mérite réelle­ment son atten­tion. En d’autres ter­mes, est-ce que sa créa­tion con­tribue ou non au bien-être social ?» (Papanek, 1971, p.80). 

La pre­mière approche pos­si­ble de l’éthique by design, reposerait donc, de pre­mier abord, sur son car­ac­tère inten­tion­nel et anthro­pocen­tré. Traduit lit­térale­ment de l’anglais, la locu­tion « by design » ren­voie en effet à « ce qui est inten­tion­nel », ce qui est « à des­sein ».  Cette tra­duc­tion appliquée à l’éthique, nous amène à con­sid­ér­er l’éthique selon deux approches focal­isées sur le sujet rationnel et à ses actions : la déon­tolo­gie et le con­séquen­tial­isme. Sur ce point, il est intéres­sant de con­stater que l’une des pre­mières occur­rences académiques de l’expression « ethics by design » en tant que telle, vient de la soci­olo­gie des organ­i­sa­tions. Elle se trou­ve dans l’ouvrage éponyme de Stephanie L. Moore, pro­fesseur à l’Université de Vir­ginie, pub­lié en 2010. La thèse qui y est défendue est qu’il est néces­saire – si l’on veut qu’une organ­i­sa­tion soit viable — de dévelop­per une cul­ture de la con­séquence dans les équipes, c’est-à-dire de con­cep­tu­alis­er et d’anticiper les impacts des actions et déci­sions humaines, en amont des proces­sus, même pour les mis­sions les plus tech­niques qui soient.

La sec­onde accep­ta­tion pos­si­ble de l’éthique by design ren­ver­rait à une approche « par con­cep­tion », qui va au-delà de l’intentionnalité (cen­trée sur le juge­ment humain) en étant tech­no-cen­trée. Il s’agit ici d’une approche de l’éthique ori­en­tée « objet », c’est-à-dire qui prend en con­sid­éra­tion les con­traintes tech­niques pour implé­menter de manière opéra­toire des principes éthiques dans les fonc­tion­nal­ités, les struc­tures, les agence­ments voire l’esthétique des tech­niques. Cette éthique « par con­cep­tion », s’illustre par exem­ple avec les approches des machine ethics qui visent à définir des com­porte­ments éthiques dans la pro­gram­ma­tion d’agent moraux arti­fi­ciels, ou encore celle du Val­ue Sen­si­tive Design (VSD), dévelop­pée par Batya Fried­man (1996), qui a par exem­ple per­mis de théoris­er le con­cept de pri­va­cy by design (PbD). Le PbD étant une méthodolo­gie qui per­met de pren­dre en compte dès la phase de con­cep­tion des sys­tèmes, les exi­gences légales en matière de pro­tec­tion des don­nées per­son­nelles, et d’intégrer les out­ils de pro­tec­tion directe­ment dans le pro­duit, au lieu de les ajouter ultérieure­ment sous forme de com­plé­ments. Cette éthique ori­en­tée objet reflète néan­moins tou­jours des fric­tions entre, d’une part, la volon­té d’intégrer des valeurs humaines dans l’objet, et d’autre part, les valeurs d’usage qui récla­ment un bon fonc­tion­nement tech­nique et/ou une facil­ité d’appropriation. La valeur d’explicabilité des sys­tèmes par exem­ple, néces­site des efforts tech­niques et péd­a­gogiques qui, même s’ils sont louables, peu­vent amput­er l’utilisabilité d’un out­il.

Une troisième accep­ta­tion de l’éthique by design sup­pose de con­sid­ér­er ce qui se pro­duit au tra­vers de la médi­a­tion tech­nique. Cette approche, inspirée de la philoso­phie des tech­niques et notam­ment de la post-phénoménolo­gie, se dis­tingue donc de l’éthique par con­cep­tion décrite précédem­ment, car il n’est pas ques­tion ici d’implémenter des règles, normes ou principes éthiques dans les fonc­tion­nal­ités mêmes de la tech­nique, mais d’observer et de penser les effets soci­aux (entre autres) de la co-déf­i­ni­tion du sujet et de l’objet par les médi­a­tions tech­niques. A titre d’exemple, Peter-Paul Ver­beek décrit la façon dont les télé­phones porta­bles co-for­ment nos modes de social­i­sa­tion (Ver­beek, 2005). Cette réflex­ion sur la médi­a­tion nous invite à décen­tr­er notre regard d’une éthique anthro­pocen­trée vers une éthique rela­tion­nelle (sujet-objet), à par­tir de l’observation des effets des médi­a­tions. Le con­texte numérique impose un tel ren­verse­ment des théories éthiques clas­siques anthro­pocen­trées, tel que l’a pro­posé Luciano Flori­di avec son éthique de l’information (Flori­di, 1999). Celle-ci s’inspire des éthiques envi­ron­nemen­tales ou médi­cales, qui met­tent au cœur de la réflex­ion morale — après l’agent et l’action — le « patient » ou toutes formes de vie qui subit des actions de l’extérieur. 

Références :

Fis­ch­er F. (2019), L’éthique ‘’by design’’ du numérique : généalo­gie d’un con­cept, Sci­ences du design 10 (hors-série), Nou­veaux regards (Novem­bre 2019)

Flori­di, L. (1999). Infor­ma­tion ethics: On the philo­soph­i­cal foun­da­tion of com­put­er ethics. Ethics and infor­ma­tion tech­nol­o­gy, Kluw­er Aca­d­e­m­ic Pub­lish­ers, vol.1, p.37–56

Fried­man, B. (1996). Val­ue-sen­si­tive design. Inter­ac­tions, 3(6), p.16–23

Moore Stephanie, L. (2010). Ethics by design: Strate­gic think­ing and plan­ning for exem­plary per­for­mance, respon­si­ble results, and soci­etal account­abil­i­ty, HRD Press Inc.,U.S

Papanek V. (1974), Design pour un monde réel. Ecolo­gie humaine et change­ment social, Col­lec­tion Essais, Mer­cure de France, 358p. Trad. Nel­ly Jos­set et Robert Louit.

Ver­beek, P.P. (2005). What things do, Pen­syl­van­nia, Pen­syl­van­nia State Uni­ver­si­ty

Roland Barthes évoque dans ses Mytholo­gies la cui­sine « orne­men­tale » fig­urée dans les mag­a­zines féminins, qui fonc­tionne sur la représen­ta­tion d’une nour­ri­t­ure irréelle et mag­ique[1]. Sur Insta­gram, c’est cette orne­men­tal­ité qui se retrou­ve pro­longée à tra­vers les pra­tiques liées au « food­porn », qui con­siste à pro­duire des pho­togra­phies esthétisées de nour­ri­t­ure. Le suf­fixe « ‑porn » indique alors l’aspect cen­tral du désir dans ces mécan­ismes de mise en image.

Le terme n’est toute­fois pas récent, bien au con­traire : Ros­alind Cow­ard l’emploie déjà en 1984 pour désign­er la pra­tique de cam­ou­fler la pré­pa­ra­tion de la nour­ri­t­ure[2]. Aujourd’hui, le hash­tag ren­voie à la fois à un véri­ta­ble culte de la nour­ri­t­ure (avec presque 212 mil­lions d’images sur Instra­gram), à une per­cep­tion de l’alimentation idéal­isée, et à une pra­tique d’amateurs[3] imi­tant la pho­togra­phie culi­naire pro­fes­sion­nelle. Les inter­nautes fix­ent l’expérience extra­or­di­naire pour l’inscrire dans une com­mu­nauté qui célèbre l’amalgame des sens : entre la gus­ta­tion visuelle et le regard savourant. 

Ces pra­tiques réac­tivent le lien entre le terme « porn » et l’enjeu de voyeurisme : le but n’est pas tant de faire que de faire voir. Le désir asso­cié à l’objet est alors dis­so­cié de sa con­no­ta­tion sex­uelle ini­tiale, via un glisse­ment séman­tique qui sépare le « porn » de son terme orig­inel « pornog­ra­phy[4] ». En fil­igrane de l’exhibition se pose donc égale­ment la ques­tion de l’artifice. L’esthétique du « porn » repose sur l’ambiguïté décep­tive du « comme si » (les assi­ettes ain­si partagées sont-elles vrai­ment con­som­mées ?).

L’emploi du suf­fixe « ‑porn » n’est cepen­dant pas lim­ité aux images de repas. Il peut être applic­a­ble à la mise en scène de pra­tiques et d’objets divers, tels que le voy­age (#trav­el­porn), les voitures (#car­porn), les livres (#book­porn), les nuages (#cloud­porn)… Il s’agit dans tous les cas de représen­ter l’élément pho­tographié comme objet de fan­tasme : comestible ou non, ce dernier appelle dans ce con­texte à être « dévoré » du regard. L’incitation à l’exhibition qui struc­ture la pra­tique pho­tographique sur les réseaux soci­aux entraine un usage infla­tion­niste, une banal­i­sa­tion du « porn ». Ces enjeux de stan­dard­i­s­a­tion esthé­tique posent la ques­tion de la nature inter­change­able des objets ain­si mis en scène. Le cadrage édi­to­r­i­al des plate­formes qui accueil­lent ces icono­gra­phies joue dès lors un rôle majeur dans ce proces­sus de lis­sage formel.

L’association de l’objet à sa mise en désir iconi­cisée trou­ve en con­séquence un écho par­ti­c­uli­er dans les logiques d’un « cap­i­tal­isme artiste[5] », qui met en avant la valeur esthéti­co-émo­tion­nelle[6] des biens en styl­isant l’univers du quo­ti­di­en. Dès lors, la poé­tique du « porn » con­stitue un moyen priv­ilégié de réaf­firmer le fétichisme de cer­tains objets ou pra­tiques envis­agés à l’aune d’enjeux marchands. L’image pho­tographique devient l’embrayeur d’une socia­bil­ité pub­lic­i­taire au ser­vice des plate­formes[7], via une mobil­i­sa­tion de la « pul­sion scopique » du con­som­ma­teur.

Références :

Roland Barthes, Mytholo­gies, Paris : Édi­tions du seuil, 1957

Ros­alind Cow­ard, Female Desire : Wom­en’s Sex­u­al­i­ty Today. Lon­dres : Pal­adin, 1984.

Patrice Flichy, Le sacre de l’amateur. Soci­olo­gie des pas­sions ordi­naires à l’ère numérique, Paris, Édi­tion du seuil, 2010.

Gilles Lipovet­sky, Jean Ser­roy, L’esthétisation du monde. Vivre à l’âge du cap­i­tal­isme artiste, Paris, Gal­li­mard, 2013.

Car­o­line Mar­ti, « Au nom du partage… Enjeux pub­lic­i­taires d’une prop­a­ga­tion pho­tographique culi­naire. », col­loque #food­porn : les mobiles du désir, IRCAV-Paris 3, 14 décem­bre 2018.

José Anto­nio Sanchez Fajar­do, « Not all that glit­ters is sex », Amer­i­can Speech, Vol. 93, No. 1, Févri­er 2018.


[1] Roland Barthes, Mytholo­gies, Paris : Édi­tions du seuil, 1957, p. 120.

[2] Cow­ard, Ros­alind, Female Desire : Wom­en’s Sex­u­al­i­ty Today. Lon­dres : Pal­adin, 1984.

[3] Patrice Flichy, Le sacre de l’amateur. Soci­olo­gie des pas­sions ordi­naires à l’ère numérique, Paris : Édi­tion du seuil, 2010.

[4] José Anto­nio Sanchez Fajar­do, « Not all that glit­ters is sex », Amer­i­can Speech, Vol. 93, No. 1, Févri­er 2018.

[5] Gilles Lipovet­sky, Jean Ser­roy, L’esthétisation du monde. Vivre à l’âge du cap­i­tal­isme artiste, Paris : Gal­li­mard, 2013.

[6] Ibid.

[7] Car­o­line Mar­ti, « Au nom du partage… Enjeux pub­lic­i­taires d’une prop­a­ga­tion pho­tographique culi­naire. », col­loque #food­porn : les mobiles du désir, organ­isé par le groupe de recherche « Mobile et Créa­tion » de l’IRCAV-Paris 3, le 14 décem­bre 2018.

Le syn­tagme « forum de patients » est issu des recherch­es menées con­join­te­ment par des chercheurs en sci­ences de l’information et de la com­mu­ni­ca­tion, en philoso­phie, soci­olo­gie et médecine, au sein du Site Inté­gré de Recherche Inter­dis­ci­plinaire sur le Can­cer CURAMUS Sor­bonne Uni­ver­sité APHP. Il désigne à la fois les dis­posi­tifs numériques (sur des plate­formes, réseaux soci­aux, site inter­net d’associations ou insti­tu­tions, …), leurs archi­textes et les pris­es de parole per­me­t­tant des échanges à des groupes de patients, aidants, proches, médecins autour d’une patholo­gie spé­ci­fique ou d’un groupe de mal­adies (typ­ique­ment « le can­cer »). Ces dis­posi­tifs et groupes hétérogènes sont autrement dénom­més « com­mu­nauté de patients, com­mu­nauté de patients en ligne, forum san­té, forum de l’expérience patient, patient 2.0, tchat patients, forum de dis­cus­sion et forum patient-médecin ». Ces dis­posi­tifs éma­nent d’acteurs/énonciateurs très divers ; tant des asso­ci­a­tions des patients, d’acteurs de san­té publique et de recherche, de lab­o­ra­toires phar­ma­ceu­tiques, de médias spé­cial­isés dans le domaine de la san­té, que d’acteurs indi­vidu­els.

L’expression « forum de patients » per­met de ne priv­ilégi­er aucune de ces formes et/ou un de ces acteurs en endos­sant leurs dis­cours et les imag­i­naires du numérique qu’ils véhicu­lent. Le terme forum, très présent dans le vocab­u­laire com­mun du numérique, per­met d’envisager le dis­posi­tif, éty­mologique­ment, comme la métaphore d’une place et plus large­ment d’un lieu où se dis­cu­tent à la fois les affaires marchan­des, juridiques, publiques et poli­tiques. Par exten­sion, la notion de forum désigne les réu­nions ou débats publics, notam­ment sur des thèmes poli­tiques ou sci­en­tifiques, ce qui met en avant l’aspect com­mu­ni­ca­tion­nel des échanges. (Lit­tré et Tré­sor de la Langue Française Infor­ma­tisé)

Dans une per­spec­tive barthési­enne, la méta-métaphore du « forum de patients » rend bien compte de ce va-et-vient inces­sant « entre l’objet et sa démys­ti­fi­ca­tion, impuis­sants à ren­dre sa total­ité : car si nous pénétrons l’objet, nous le libérons mais nous le détru­isons ; et si nous lui lais­sons son poids, nous le respec­tons, mais nous le resti­tuons encore mys­ti­fié »(Barthes Mytholo­gies,1957).

En out­re, le syn­tagme « forum de patients » per­met de faire cohab­iter, en jouant sur les deux sens du géni­tif « de », l’idée que le forum émane des patients autant qu’il les con­stru­it en tant que tels, voire les fait advenir. Comme le souligne Yves Jean­neret à pro­pos de la for­mule « tech­nolo­gies de l’information » : « la ques­tion [du géni­tif] n’est ni anodine, ni sec­ondaire, mais cen­trale. Les « tech­nolo­gies de l’informations » sont-elles tail­lées dans l’information, comme le pavé est tail­lé dans le rum­steck, ou sont-elles pour­voyeuses d’information, comme la fontaine est pour­voyeuse de jou­vence (ou voudrait l’être) ? Sont-elles fab­riquées avec l’information ou fab­ri­cantes d’information ? L’information est-elle leur matière pre­mière ou leur résul­tat ? » (Jean­neret, Y a‑t-il (vrai­ment) des tech­nolo­gies de l’information, 2011, 58).

Le « forum de patients » s’inscrit dans les dis­posi­tifs, formes et for­mats numériques dits « par­tic­i­pat­ifs ». En cela, il présente les car­ac­téris­tiques du cona­tus dis­cur­sif (Can­del, 2016, « Le cas de la cri­tique de livres “par­tic­i­pa­tive” sur les réseaux », in Rial­land (dir.), Cri­tique et médi­um, Paris, CNRS Édi­tions, 324) au sens où il con­stitue « un appel à écrire et à con­tribuer sans cesse qui est cul­tivé dans les formes dites par­tic­i­pa­tives des médias et glo­ri­fié par l’affichage de toutes les pro­duc­tions des ama­teurs ». La fig­ure de l’amateur pose, in fine, la ques­tion du statut des par­tic­i­pants-écrivants dans l’espace proposé/imposé par ces dis­posi­tifs.  Quelle exper­tise, quelle autorité/légitimé, quelle auc­to­ri­al­ité, quelles rela­tions d’aide, de pou­voir con­stru­isent-ils ou représen­tent-ils ? En cela, ils peu­vent être inter­rogés dans leur poten­tial­ité à con­stituer des « matri­ces généra­tives d’autorité » (Damien, Éloge de l’autorité. Généalo­gie d’une (dé)raison poli­tique, 2013, 21).

Le terme, asso­cié à l’action d’infliger (frap­per, heurter, faire subir), employé de longue date dans la physique, l’ingénierie et le mil­i­taire devient courant dans le domaine de la com­mu­ni­ca­tion et de l’information pour désign­er l’effet — plus ou moins pronon­cé — pro­duit par quelque chose, sa réper­cus­sion, son influ­ence.

Il donne une valeur sym­bol­ique par­ti­c­ulière à l’effet pro­duit par l’ob­jet tech­nique et incar­ne l’opérativité même de sa dimen­sion com­mu­ni­ca­tion­nelle. Il est, en ce sens, sou­vent accom­pa­g­né d’un adjec­tif qui le qual­i­fie : on par­le alors d’« impact pub­lic­i­taire », « impact médi­a­tique », « impact posi­tif » ou « impact négatif » d’une cam­pagne pub­lic­i­taire. Dans ces cas, l’emploi du terme sug­gère une con­cep­tion linéaire et uni­di­men­sion­nelle de la com­mu­ni­ca­tion impli­quant une cause et un effet.

Mais l’« impact » se pro­duit aus­si à coups d’éclat dans les dis­cours pro­fes­sion­nels, savants, jour­nal­is­tiques et mil­i­tants du numérique : il est sou­vent ques­tion de l’« impact » des nou­velles tech­nolo­gies sur la société ou la cul­ture, l’impact des médias soci­aux sur la société, impact de la trans­for­ma­tion numérique. Dans une accep­tion proche de l’usage courant dans le domaine pub­lic­i­taire, il s’agit ici de désign­er l’emprise de l’objet tech­nique sur le social.

Ici, la métaphore bal­is­tique est fort sug­ges­tive, car « impact » relève à la fois du sen­si­ble — heurt entre le corps matériel du sup­port et le corps physique des sujets — mais aus­si du mesurable — dimen­sion util­i­taire de son effi­cac­ité marchande. Dans un prag­ma­tisme pro­pre à la rai­son instru­men­tale qui ne con­naît plus rien en dehors des effets, la notion s’empare de l’objet tech­nique comme pro­jec­tile : il serait pos­si­ble d’évaluer quan­ti­ta­tive­ment son angle de tir, sa tra­jec­toire, sa portée, ses dégâts et, plus impor­tant, sa cible, dont la résis­tance se traduirait par une cer­taine capac­ité à absorber le choc. « Impacter » c’est com­mu­ni­quer par coups : des frappes ravis­santes de l’objet tech­nique sur la société, dotées tou­jours de valeurs quan­tifi­ables.

Mais une telle métaphore peut s’avérer trompeuse, car en sup­posant un pro­jec­tile (l’objet tech­nique) et une cible (la société ou la cul­ture) elle ne s’empare de cette dernière que comme un pôle récep­teur. L’« impact » ne se réalise pas pour ou avec, mais con­tre quelqu’un ou quelque chose : le terme indique que l’objet tech­nique s’impose à la société qui, pour sa part, le subit pas­sive­ment. Son emploi témoigne donc d’un déter­min­isme tech­nologique avec lequel le sujet tend à être appréhendé.

Références :

AKRICH, Madeleine. “La con­struc­tion d’un sys­tème sociotech­nique. Esquisse pour une anthro­polo­gie des tech­niques”. AKRICH, Madeleine, et al.. Soci­olo­gie de la tra­duc­tion : Textes fon­da­teurs. Paris : Press­es des Mines, 2006. pp. 109–134

LEVY, Pierre. Cyber­cul­ture: Rap­port au Con­seil de l’Europe. Paris : Édi­tions Odile Jacob, 1997.

MEISSONIER, Régis. « L’indéter­min­isme sci­en­tifique vu comme une richesse », Sys­tèmes d’in­for­ma­tion & man­age­ment, vol. vol­ume 19, no. 2, 2014, pp. 3–7.

La notion d’instrumentation numérique désigne l’ensemble des proces­sus con­cour­ant au développe­ment et/ou à l’intégration de dis­posi­tifs d’exploitation de don­nées numériques dans les pra­tiques de recherche sci­en­tifique. Elle a été ini­tiale­ment mobil­isée pour éclair­er les effets épisté­mologiques de ces dis­posi­tifs, aus­si qual­i­fiés d’instruments numériques, sur l’étude des phénomènes socio­cul­turels (Big­ot, 2018).

L’instrumentation numérique peut être con­sid­érée, fon­da­men­tale­ment, comme un proces­sus de médi­a­tion organ­isant et struc­turant une rela­tion à l’objet sci­en­tifique selon un régime épistémique spé­ci­fique, cette rela­tion s’incarnant dans l’agencement tech­nosémi­o­tique du dis­posi­tif d’écriture qu’est l’instrument numérique. De cette optique émerge une hypothèse cen­trale posant que les con­traintes représen­ta­tion­nelles des dis­posi­tifs instru­men­taux, à la fois matérielles et sym­bol­iques, impliquent des régimes épisté­mologiques spé­ci­fiques.

Sur un plan phénoménologique, l’instrumentation numérique relève d’une phénoménotech­nique, selon un con­cept emprun­té à l’épistémologie de Gas­ton Bachelard qui, dans une per­spec­tive con­struc­tiviste, con­state que la sci­ence con­tem­po­raine, ou ce qu’il nomme « le nou­v­el esprit sci­en­tifique » (Bachelard, 1934), se car­ac­térise par une rup­ture avec le principe de l’observation empirique et l’adoption d’une démarche expéri­men­tale instru­men­tée général­isée. Par là, les phénomènes étudiés par les sci­en­tifiques ten­dent à devenir de pures con­struc­tions abstraites fab­riquées par le truche­ment d’artéfacts tech­no-math­é­ma­tiques et sont ain­si autant une pro­priété de la nature qu’un con­stru­it tech­nique. Dans cette per­spec­tive, l’instrument sci­en­tifique devient un pro­longe­ment sys­té­ma­tique, non seule­ment des capac­ités per­cep­tives, mais aus­si des capac­ités cog­ni­tives du chercheur : c’est une vis­i­bil­ité qui ren­ferme une intel­lec­tu­al­ité. Plus pré­cisé­ment, l’instrumentation n’a pas pour fonc­tion d’enregistrer les « don­nées » d’un réel objec­tif qui lui préex­is­terait mais, plus sub­tile­ment, elle a la pro­priété d’élaborer des « phénomènes » résul­tant d’un con­tact ou d’une rela­tion entre les par­a­digmes d’une théorie insti­tuée, dont les instru­ments sont la réal­i­sa­tion matérielle, et cer­taines qual­ités d’objets sans elle inac­ces­si­ble. Pour nous, l’instrumentation numérique se situe au parox­ysme de la phénoménotech­nique.

L’instrument numérique est d’abord un instru­ment d’inscription (Latour, 1985) artic­u­lant une ingénierie représen­ta­tion­nelle avec un mod­èle ana­ly­tique inscrits dans un pro­gramme infor­ma­tique. Cette artic­u­la­tion entre un « savoir » et un « voir » opérée par le dis­posi­tif instru­men­tal déter­mine ce que nous nom­mons une pos­ture épisté­mologique. Nous employons cette notion pour désign­er la manière dont le sub­strat instru­men­tal con­fig­ure et met en œuvre une expéri­ence épistémique sin­gulière. Cette pos­ture procède d’une dou­ble opéra­tion : une implé­men­ta­tion méthodologique et une inscrip­tion par­a­dig­ma­tique.

L’implé­men­ta­tion méthodologique cor­re­spond à la for­mal­i­sa­tion d’une méth­ode dans un pro­gramme[1]. Plus pré­cisé­ment, il s’agit de l’élaboration d’un procès d’écriture pro­gram­ma­tique com­mandé par l’architexte du dis­posi­tif instru­men­tal qui organ­ise, non seule­ment un geste de représen­ta­tion (« visu­al­i­sa­tion » des don­nées), mais égale­ment pre­scrit une procé­dure ana­ly­tique (inter­pré­ta­tions sta­tis­tiques des don­nées). Une analyse de dif­férents arché­types d’instruments numériques (Big­ot, 2018 et 2019) a mon­tré que cette procé­dure représen­ta­tion­nelle et ana­ly­tique repose majori­taire­ment sur des pre­scrip­tions algo­rith­miques. En effet, pour per­me­t­tre le traite­ment d’abondantes mass­es de don­nées, les con­cep­teurs dévelop­pent les fonc­tions représen­ta­tion­nelles, ana­ly­tiques et sta­tis­tiques de ces pro­grammes en les for­mal­isant dans des algo­rithmes dont l’effectuation semi-automa­tisée est plus ou moins paramé­tra­ble par l’utilisateur.

Intime­ment liée à l’implé­men­ta­tion méthodologique, l’inscrip­tion par­a­dig­ma­tique désigne l’incorporation et la réal­i­sa­tion matérielle d’un ensem­ble de « par­a­digmes »[2] sci­en­tifiques dans le dis­posi­tif instru­men­tal. Là aus­si, un exa­m­en atten­tif des pro­priétés tech­nosémi­o­tiques des instru­ments numériques révèle que l’écriture algo­rith­mique dont ils procè­dent est une écri­t­ure théorique­ment située, dans le sens où les algo­rithmes (de « visu­al­i­sa­tion » ou de cal­cul sta­tis­tique) sont élaborés à par­tir de théories, voire de théorèmes, directe­ment emprun­tés à des champs dis­ci­plinaires bien spé­ci­fiques. À titre d’exemple, les algo­rithmes aux fonde­ments de l’application d’analyse de réseaux Gephi sont issus de travaux en théorie des graphes et du champ de la « sci­ence des réseaux », deux domaines rel­e­vant de l’informatique et des math­é­ma­tiques appliquées. De la même façon, un logi­ciel lex­i­cométrique comme IRa­MuTeQ implé­mente la « méth­ode Alces­te » sur la base d’algorithmes ini­tiale­ment dévo­lus au domaine lin­guis­tique de « l’analyse de don­nées » et provenant notam­ment de la « théorie des mon­des lex­i­caux » de Max Rein­ert.

Des enjeux poli­tiques… (à suiv­re)

Références :  

Bachelard Gas­ton, (1934), Le nou­v­el esprit sci­en­tifique, Paris, PUF.

Bachi­mont Bruno, (2010), Le sens de la tech­nique : le numérique et le cal­cul, Paris, Les Belles Let­tres.

Big­ot Jean-Édouard, (2019), « Enjeux épisté­mologiques et poli­tiques d’une instru­men­ta­tion numérique des SHS », Actes de la con­férence H2PTM’19, 16–18 octo­bre 2019, Mont­béliard, ISTE Edi­tions.

Big­ot Jean-Édouard, (2018), Instru­ments, pra­tiques et enjeux d’une recherche numérique­ment équipée en sci­ences humaines et sociales, Thèse en sci­ences de l’information et de la com­mu­ni­ca­tion, Uni­ver­sité de Tech­nolo­gie de Com­piègne.

Big­ot Jean-Édouard, Mabi Clé­ment, (2017), « Une instru­men­ta­tion numérique des sci­ences humaines et sociales. Enjeux épisté­mologiques et com­mu­ni­ca­tion­nels », Les cahiers du numérique, vol. 13, n° 3, p. 63–90.

Bour­dieu Pierre, (2001), Sci­ence de la sci­ence et réflex­iv­ité, Paris, Raisons d’agir.

Das­ton Lor­raine, Gal­i­son Peter, (2012), Objec­tiv­ité, Paris, Les Press­es du Réel.

Kuhn Thomas, (1962), The Struc­ture of Sci­en­tif­ic Rev­o­lu­tions, Uni­ver­si­ty of Chica­go Press.

Latour Bruno, (1985), « Les vues de l’esprit. Une intro­duc­tion à l’anthropologie des sci­ences et des tech­niques », Cul­ture tech­nique, n° 14, p. 4–30.


[1] Selon des con­cep­tions emprun­tées à Bruno Bachi­mont pour qui l’évolution des tech­nolo­gies cog­ni­tives tend à faire dis­paraître la méth­ode dans le régime de la méthodolo­gie, c’est-à-dire dans un régime de délé­ga­tion machinique crois­sante où l’agent humain se voit attribuer une pos­ture de sim­ple exé­cu­tant dans la mise en œuvre d’un pro­to­cole ana­ly­tique et inter­pré­tatif majori­taire­ment pris en charge par le dis­posi­tif tech­nique (Bachi­mont, 2010).

[2] Nous enten­dons ici par « par­a­digmes », à la suite de Thomas Kuhn, un ensem­ble de schèmes et de mod­èles, de con­cepts et de lois générales, de déf­i­ni­tion des objets, et encore de modes de prob­lé­ma­ti­sa­tion sin­guliers, qui délim­i­tent l’espace d’une matrice dis­ci­plinaire don­née dans le champ sci­en­tifique (Kuhn, 1962).

Terme forgé lors d’une école d’été du Dart­mouth Col­lege en 1956, l’intelligence arti­fi­cielle provient de dis­cus­sions qui ont con­nu une inten­sité remar­quable dans les années 40 lors de la nais­sance de la cyberné­tique. Cette dernière visait à établir une théorie du con­trôle des sys­tèmes naturels et arti­fi­ciels, se fon­dant sur des analo­gies entre le vivant et le mécanique (com­porte­ment proie – pré­da­teur / tor­pille objec­tif, oscil­la­tions motri­ces / oscil­la­tions loin de l’équilibre, etc.) [Rosen­blueth et al., 1943]. En out­re, elle fai­sait la syn­thèse entre la com­préhen­sion du fonc­tion­nement cérébral et les nou­velles théories de la cal­cu­la­bil­ité en pro­posant de voir dans le cerveau la pre­mière réal­i­sa­tion d’une machine de Tur­ing en se fon­dant sur la notion de neu­rone formel, base de cal­cul formel et abstrac­tion du neu­rone biologique [McCul­loch & Pitts 1943].

Faisant suite à ces prémices cyberné­tiques, l’intelligence arti­fi­cielle s’est don­née comme objec­tif d’avoir une théorie générale de l’intelligence (par exem­ple, [Hauge­land 1981, Newell 1990]), qu’elle soit le fait de sys­tèmes naturels ou arti­fi­ciels. Il fal­lait donc pro­pos­er les principes à la base de la cog­ni­tion, pour les observ­er et analyser dans les sys­tèmes naturels et les repro­duire et expéri­menter dans les sys­tèmes arti­fi­ciels. Comme le soulig­nait J. Hauge­land [1989], il valait mieux par­ler d’intelligence de syn­thèse, car on voulait pro­duire une véri­ta­ble intel­li­gence avec des moyens arti­fi­ciels, que d’intelligence arti­fi­cielle com­prise comme une intel­li­gence simulée ou dégradée.

On vit alors plusieurs par­a­digmes ou principes pro­posés pour expli­quer ou ren­dre compte de l’intelligence. Deux propo­si­tions se fai­saient con­cur­rence :

  • La représen­ta­tion formelle des con­nais­sances humaines pour les met­tre à dis­po­si­tion de la machine qui se com­por­tait alors comme un raison­neur ou démon­stra­teur de théorèmes. L’enjeu est de dot­er la machine des mêmes out­ils ou con­tenus que ceux qui nous, sys­tèmes cog­ni­tifs et intel­li­gents, per­me­t­tent de réalis­er des tâch­es ou résoudre des prob­lèmes. L’hypothèse sous-jacente est que l’intelligence repose sur un lan­gage, pos­sé­dant sa gram­maire (le raison­nement) et son lex­ique (les con­nais­sances). His­torique­ment, ce sont les sys­tèmes experts (base de con­nais­sance et moteur d’inférences), à présent les ontolo­gies et les raison­neurs.
  • La mod­éli­sa­tion de l’inférence sous la forme de réseaux de neu­rones formels,  l’organisation des neu­rones et du réseau ne reflé­tant pas la représen­ta­tion des con­nais­sances, mais s’optimisant via un appren­tis­sage sur des don­nées. Ce furent his­torique­ment le Per­cep­tron de Rosen­blatt et aujourd’hui les dif­férentes facettes du machine learn­ing et deep learn­ing.

Ces deux par­a­digmes ont con­nu des suc­cès divers et des effets de modes con­trastés. Les réseaux de neu­rones, après quelques implé­men­ta­tions promet­teuses, furent con­damnés pour lim­i­ta­tion intrin­sèque par Min­sky et Papert en 69 : ces réseaux ne pou­vaient pas appren­dre des organ­i­sa­tions non linéaire­ment sépara­bles de don­nées. L’ingénierie des con­nais­sances con­nut alors ses heures de gloire, notam­ment lorsque des sys­tèmes experts résolurent des prob­lèmes com­plex­es, comme Prospec­tor [Duda et al. 1981] qui per­mit de trou­ver de nou­veaux champs pétro­lifères ou Mycin en médecine [Short­liffe 1976]. Quand fut mis au point dans les années 80 la rétro­prop­a­ga­tion du gra­di­ent (méth­ode pour cal­culer le gra­di­ent de l’er­reur pour chaque neu­rone d’un réseau, ce qui per­met de faire appren­dre à un réseau la recon­nais­sance de formes com­plex­es), on put con­cevoir des réseaux de neu­rones out­repas­sant la bar­rière de la linéar­ité. Cette dernière décen­nie, la disponi­bil­ité de mass­es de don­nées d’une part et d’architectures de proces­sus per­for­mantes (notam­ment grâce aux jeux vidéo) d’autre part, a per­mis d’obtenir des résul­tats spec­tac­u­laires, relançant les débats et phan­tasmes sur les machines qui pensent et qui détrô­nent l’humain.

C’est pourquoi il faut sans doute con­sid­ér­er l’IA sous deux aspects com­plé­men­taires : l’un, sur le plan des résul­tats obtenus et des pos­si­bil­ités sci­en­tifiques et tech­niques avérées ; l’autre, sur la ques­tion de la machine pré­ten­dant à l’intelligence.

Sur le pre­mier plan, on a une sit­u­a­tion con­trastée : d’un côté, on a des out­ils très per­for­mants pour traiter des don­nées, essen­tielle­ment pour dégager des formes que l’on veut recon­naitre ou appli­quer ensuite, sans être capa­ble cepen­dant :

  • d’utiliser les con­nais­sances dont on dis­pose sur ces don­nées (les mod­èles, les infor­ma­tions struc­turées, etc.) ;
  • d’interpréter les cal­culs effec­tués ;
  • d’évaluer les résul­tats obtenus quand ils s’appliquent à des prob­lèmes nou­veaux.

Mais pour toutes les tâch­es dont on sait éval­uer les résul­tats, les per­for­mances sont spec­tac­u­laires et font mieux que les experts humains (recon­nais­sances de radi­ogra­phies médi­cales par exem­ple), jeux de stratégie (Jeop­ardy, Go, Echec, etc.). Cette approche est égale­ment très intéres­sante du fait de sa robustesse et résis­tance aux don­nées hétérogènes et fau­tives.

D’un autre côté, les approches mobil­isant les représen­ta­tions formelles des con­nais­sances (ontolo­gies par exem­ple) sont pré­cis­es, intel­li­gi­bles et pren­nent en compte la struc­ture des con­nais­sances. Les résul­tats et les cal­culs pour les obtenir sont inter­préta­bles. Cepen­dant ces approches sont peu robustes (réagis­sent mal devant des don­nées fau­tives) et peu scal­ables (traite­ment des grandes mass­es de don­nées).

L’un des grands enjeux aujourd’hui est de pou­voir mari­er les avan­tages de ces deux approches, en étant capa­ble d’injecter les con­nais­sances a pri­ori dans les traite­ments, de con­serv­er l’intelligibilité de ces derniers et que leurs résul­tats soient inter­préta­bles tout en gar­dant la robustesse aux défauts et la résis­tance à la masse.

Sur le sec­ond plan, la ques­tion est de savoir si ces traite­ments, aus­si spec­tac­u­laires soient-ils, nous appren­nent quelque chose sur l’intelligence. Plusieurs remar­ques peu­vent être faites :

  • Dans son fonc­tion­nement, l’ordinateur est irrémé­di­a­ble­ment stu­pide, manip­u­lant des signes qui n’en sont pas, aveu­gles et décon­nec­tés de toute réal­ité matérielle (implé­men­ta­tion) et séman­tique (inter­faces, cap­teurs et effecteurs).
  • Le cal­cul fonc­tion­nant de manière locale, les struc­tures de cal­cul ne pou­vant mobilis­er que les par­ties qui les com­posent, il ne peut repro­duire les approches glob­ales et sys­témiques qu’on retrou­ve dans les proces­sus inter­pré­tat­ifs et her­méneu­tiques. En par­ti­c­uli­er, le cal­cul est par principe aveu­gle au con­texte, qui ne peut être pris en compte qu’à tra­vers une représen­ta­tion comme élé­ment du cal­cul (n’étant alors plus un con­texte).
  • Cette inca­pac­ité à pren­dre en compte l’intelligence ne se lim­ite pas à cette dernière : la bar­rière du vivant reste égale­ment infran­chiss­able. Kant dans sa troisième cri­tique notait déjà qu’on attendait tou­jours le New­ton du brin d’herbe.

La ques­tion n’est pas de savoir si la machine est aus­si intel­li­gente que l’humain : la réponse est néga­tive. En revanche, la ques­tion est plutôt de savoir si l’humain n’est pas aus­si stu­pide que la machine, ou plutôt, ren­du aus­si stu­pide qu’une machine qui peut dès lors le rem­plac­er. Si l’humain comme sys­tème cog­ni­tif n’a rien à crain­dre des machines arti­fi­cielles, il appa­raît en revanche que sa mobil­i­sa­tion dans des rou­tines bureau­cra­tiques, ges­tion­naires, nor­mées, pro­gram­mées et anticipées en fait un sys­tème abru­ti, à savoir réduit à l’état d’une brute qu’une machine peut facile­ment voire avan­tageuse­ment rem­plac­er (la machine ne se fatigue pas, la machine tra­vaille tout le temps, etc., comme en témoignent les réc­its de la révo­lu­tion indus­trielle du 19e siè­cle [Jar­riges 2016], le numérique opérant la même révo­lu­tion sur les tech­niques intel­lectuelles).

La ques­tion que pose l’IA n’est pas celle de l’intelligence, mais plutôt celle selon laque­lle la com­plex­i­fi­ca­tion de notre société et de nos procé­dures se traduit par une mécan­i­sa­tion des acteurs de la société et des indi­vidus qui la com­posent. Mais si cette com­plex­ité est désor­mais le fait de machines et d’humains ren­dus indis­cern­ables, elle devient immaîtrisée voire immaîtris­able puisque les humains n’en sont plus qu’une com­posante, un élé­ment automa­tisé et pro­gram­mé, sans pou­voir la con­sid­ér­er glob­ale­ment et la réguler. Cepen­dant la com­plex­ité reste com­plexe ! Autrement dit, elle n’est pas mono­lithique, et la pro­gram­ma­tion de l’humain ne peut être uni­voque, le con­texte restant tou­jours extérieur à elle et inter­venant de ce fait sur son fonc­tion­nement. La plu­ral­ité à tra­vers laque­lle s’exprime la com­plex­ité, un sys­tème tech­nique ou bureau­cra­tique n’étant jamais glob­al mal­gré qu’il en ait, est sans doute un élé­ment de réponse : maîtris­er un proces­sus ne se fait pas de l’intérieur, car on en devient un rouage, mais de l’extérieur car on le fait jouer avec d’autres qui le con­tes­tent et avec lesquels il faut com­pos­er.

Références

Duda, R.O., Gaschnig, J., & Hart, P.E. (1981). MODEL DESIGN IN THE PROSPECTOR CONSULTANT SYSTEM FOR MINERAL EXPLORATION.

Jar­rige, F., (2016) Tech­n­o­cri­tiques, La Décou­verte.

J. Hauge­land (Ed.). (1981). Mind Design Phi­los­o­phy, Psy­chol­o­gy, Arti­fi­cial Intel­li­gence. Cam­bridge Mass: The MIT Press.

J. Hauge­land  (1989). L’e­sprit dans la machine ; Fonde­ments de l’in­tel­li­gence arti­fi­cielle. Paris: Odile Jacob.

McCul­loch et Pitts, The Log­i­cal Cal­cu­lus of the Ideas Imma­nent in Ner­vous Activ­i­ty,  Bul­letin of Math­e­mat­i­cal Bio­physics, Oxford, Else­vi­er Sci­ences, 1943, 5, 115–133.

Mar­vin Min­sky and Sey­mour Papert, 1972 (2nd edi­tion with cor­rec­tions, first edi­tion 1969) Per­cep­trons: An Intro­duc­tion to Com­pu­ta­tion­al Geom­e­try, The MIT Press, Cam­bridge MA

A. Newell  (1990). Uni­fied The­o­ries of Cog­ni­tion. Cam­bridge, Ma: Har­vard Uni­ver­si­ty Press.

A. Pélissier, & A. Tête (Eds.). (1995). Sci­ences Cog­ni­tives : Textes fon­da­teurs (1943–1950). Paris: Press­es Uni­ver­si­taires de France.

Rosen­blueth, Wiener et Bigelow, Behav­ior, Pur­pose and Tele­ol­o­gy, Phi­los­o­phy of Sci­ence, Bal­ti­more, Williams & Wilkins, 1943, Vol. X, p. 18–24. E. H. Short­liffe  (1976). MYCIN: Com­put­er-based Con­sul­ta­tions in Med­ical Ther­a­peu­tics: Amer­i­can Else­vi­er.

La lit­tératie numérique ren­voie à l’ensem­ble des con­nais­sances et des com­pé­tences (indis­so­cia­ble­ment tech­niques, com­mu­ni­ca­tion­nelles et infor­ma­tion­nelles) req­ui­s­es pour la pra­tique de l’écriture en milieu numérique (voir entrées “écri­t­ure numérique” et “milieu numérique”).

La notion de lit­tératie est enten­due selon de mul­ti­ples accep­tions, dont la plu­part s’in­scrivent dans une approche instru­men­tale de la tech­nolo­gie numérique. C’est pourquoi il nous sem­ble néces­saire de pré­cis­er notre posi­tion­nement dans le champ des études de la lit­tératie (Cail­leau, Bouchardon et Crozat, 2018).

Tout d’abord, comme le rap­pel­lent Béa­trice Fraenkel et Aïs­satou Mbodj (Fraenkel et Mbodj, 2010), « le terme anglais lit­er­a­cy appar­tient au lan­gage com­mun en langue anglaise, il désigne la capac­ité à lire et à écrire ». Ce terme vient du latin « lit­ter­a­tus » et selon l’étude du médiéviste Her­bert Grund­mann, sa séman­tique se con­stru­it en rela­tion à son antonyme « illit­er­a­tus », terme qui désigne avant le 12e siè­cle « celui qui ne sait ni lire ni écrire » et qui par la suite acquiert la con­no­ta­tion sup­plé­men­taire de la non maîtrise du latin. Les auteurs soulig­nent ain­si l’ambiguïté orig­inelle du terme de lit­tératie qui oscille entre une com­pé­tence qui relève d’une maîtrise tech­nique du lire/écrire et une com­posante cul­turelle.

Les auteurs pointent en out­re que les deux grands courants d’études sur la lit­tératie reflè­tent cette ambiguïté du terme.
Le pre­mier, le mod­èle dit « autonome », issu des travaux de Jack Goody, con­sid­ère que l’écriture en tant que « tech­nolo­gie de l’intellect » ouvre des pos­si­bles pour l’or­gan­i­sa­tion sociale et les proces­sus cog­ni­tifs » (Goody 2007) indépen­dam­ment des pra­tiques effec­tives et des con­textes où elles se déploient. Ces pos­si­bles peu­vent selon les con­textes n’être que par­tielle­ment exploités, ce qu’il qual­i­fie de « lit­tératie restreinte » (idem).
Le sec­ond, le mod­èle dit « idéologique » pro­posé par Bryan Street, pose que les pra­tiques scrip­turales sont tou­jours situées et qu’il n’est pas pos­si­ble de leur attribuer des effets a pri­ori.

Ces deux courants influ­ent sur les travaux regroupés sous l’appellation de « New Lit­er­a­cy Stud­ies ». Comme le soulig­nent Éric Delam­otte, Vin­cent Liquète et Div­ina Frau-Meigs (Delam­otte et al. 2013), « sous l’effet de l’arrivée d’Internet et du web 2.0, ces nou­velles lit­tératies se parta­gent en deux ori­en­ta­tions, l’une psy­cho-cog­ni­tive s’appuyant sur l’appropriation men­tale des proces­sus de com­préhen­sion induits par le numérique, l’autre socio-cul­turelle, se focal­isant sur les pra­tiques sociales et les modes de faire final­isés per­mis et/ou con­traints par le con­texte tech­nique. »

Dans ce con­texte, il est man­i­feste que les pos­tu­lats relat­ifs à la nature de la lit­tératie vont influer sur la manière d’envisager les modal­ités qui vont per­me­t­tre de la dévelop­per. Autrement dit, le fait de con­sid­ér­er que l’écri­t­ure numérique pos­sède des spé­ci­ficités indépen­dam­ment des usages ver­sus celui de soutenir que ses effets dépen­dent unique­ment du con­texte où elle se déploie va induire une con­cep­tion des con­nais­sances et des com­pé­tences à dévelop­per sen­si­ble­ment dif­férente. Toute­fois, les deux ori­en­ta­tions iden­ti­fiées par Éric Delam­otte et al. trou­vent actuelle­ment une grande var­iété de décli­naisons. En ce qui nous con­cerne, le fait de nous situer dans la lignée de la thèse de la « rai­son graphique » de Jack Goody, comme nous l’avons exposé ci-dessus, ne nous con­duit pas à une approche psy­cho-cog­ni­tive. Elle requiert une autre approche, une recherche tech­nologique, qui envis­age la lit­tératie numérique comme rel­e­vant d’une con­nais­sance et d’une com­préhen­sion des spé­ci­ficités de la tech­nolo­gie de l’intellect qu’est l’écriture, indis­so­cia­ble­ment tech­nique et cul­turelle. Cette approche est celle qui nous paraît la plus appro­priée pour dévoil­er notre milieu numérique selon une dou­ble final­ité de recherche et d’enseignement.

En effet, si le numérique n’est pas un sim­ple fait auquel il faut s’adapter, un ensem­ble de moyens tech­niques qu’il s’agirait de bien utilis­er, alors l’enseignement de l’écriture numérique ne saurait se lim­iter à une sim­ple inté­gra­tion des instru­ments d’écri­t­ure numérique dans les pra­tiques péd­a­gogiques. Il existe un enjeu très fort à en don­ner les clés de com­préhen­sion et d’action éclairée, en d’autres ter­mes à dévelop­per une lit­tératie numérique (Petit et Bouchardon, 2017).

Pour ce faire, nous pro­posons le con­cept de « milieu », et plus par­ti­c­ulière­ment celui de « milieu numérique » (voir entrée “milieu numérique”), comme un out­il pour penser ce qu’il con­vient d’enseigner en vue de for­mer de véri­ta­bles let­trés du numérique capa­bles non seule­ment d’utiliser des out­ils d’écri­t­ure numérique mais aus­si de com­pren­dre en quoi ils influ­ent sur nos manières de con­stru­ire la con­nais­sance et d’agir en rela­tion avec autrui (Bouchardon et Cail­leau, 2018). 

Dans cette per­spec­tive, la notion de “lit­tératie numérique” est une expres­sion ellip­tique pour désign­er celle de “lit­tératie en milieu numérique”. 

Références :

- Bouchardon, S., Cail­leau, I . (2018). « Milieu numérique et let­trés du numérique », Le français aujourd’hui, dossier « Écri­t­ure numérique : la con­ver­sion du lit­téraire ? », coor­di­na­tion Mag­a­li Brunel et Anne-Marie Petit­jean, n° 200, Paris : Armand Col­in, mars 2018, 117–125.

- Cail­leau, I., Bouchardon, S., Crozat, S. (2018). « Un MOOC pour agir et com­pren­dre en milieu numérique ». Revue de la société française des sci­ences de l’information et de la com­mu­ni­ca­tion, n°12 / 2018, http://journals.openedition.org/rfsic/3377

- Delam­otte, E., Liquète, V., Frau-Meigs, D., « La translit­tératie ou la con­ver­gence des cul­tures de l’information : sup­ports, con­textes et modal­ités », Spi­rale: revue de recherch­es en édu­ca­tion, 2014, pp.145–156.

- Fraenker, B., Mbodj-Pouye, A., « Intro­duc­tion. Les New Lit­er­a­cy stud­ies, jalons his­toriques et per­spec­tives actuelles », Lan­gage et société, 2010/3 (n° 133), p. 7–24.

- Petit, V., Bouchardon, S. (2017). « L’écri­t­ure numérique ou l’écriture selon les machines. Enjeux philosophiques et péd­a­gogiques », Com­mu­ni­ca­tion & Lan­gages, n°191, mars 2017, 129–148, https://hal.utc.fr/hal-01960029

Le con­cept de “milieu numérique” con­siste à ne pas penser le numérique seule­ment comme un moyen, mais comme notre milieu (et en par­ti­c­uli­er comme notre nou­veau milieu d’écriture et de lec­ture, cf. entrées “écri­t­ure numérique” et “lit­tératie numérique”), c’est-à-dire ce qui est à la fois autour de nous mais aus­si entre nous, ce selon quoi nous agis­sons et que nous trans­for­mons dans une rela­tion de co-con­sti­tu­tion per­ma­nente.

Le con­cept de milieu a une longue histoire[1] et com­porte de nom­breuses vari­antes déf­i­ni­tion­nelles selon les auteurs qui le mobilisent. Toute­fois, comme le souligne Vic­tor Petit (2013), un noy­au com­mun se dégage en tant que le con­cept met l’accent sur la rela­tion entre dif­férents ter­mes. Cette rela­tion peut être tenue pour géné­tique : elle ne préex­iste pas aux ter­mes qu’elle con­stitue. En effet, en langue française, le sens du terme de « milieu » per­met de ren­dre compte de cette exi­gence con­ceptuelle anti­sub­stan­tial­iste (où le pri­mat n’est pas don­né à la sub­stance mais bien à la rela­tion). Il désigne à la fois :

                            « mi-lieu »            et           « milieu »    

                             le  cen­tre                           l’autour

                             l’entre-deux                       l’ambiance

                             le medi­um                          l’envi­ron­nement.            

Cette duplic­ité séman­tique est con­sti­tu­tive de son sens. Il est plus que l’environnement car l’environnement « envi­ronne », il est extérieur. Le milieu est au « mi-lieu », il est à la fois intérieur et extérieur, il ren­voie à une intéri­or­ité non déjà con­sti­tuée et une extéri­or­ité con­sti­tu­ante de sorte que l’intérieur et l’extérieur co-émer­gent en même temps. 

L’enjeu de la mobil­i­sa­tion de ce con­cept est de penser la rela­tion de co-con­sti­tu­tion de l’individu et du milieu. Lorsqu’il s’agit de la tech­nique, notam­ment numérique, le con­cept de milieu per­met de thé­ma­tis­er la rela­tion de co-con­sti­tu­tion de l’individu (indi­vidu­el et col­lec­tif) et de la tech­nique (numérique) notam­ment sous l’aspect du sup­port. Notre milieu com­porte une dimen­sion tech­nique con­sti­tu­tive, même s’il ne s’y réduit pas. De même, le numérique est une facette de la tech­nique con­tem­po­raine, sans être la seule. Et par­ler de « milieu numérique » revient à met­tre l’accent sur des aspects du milieu con­tem­po­rain sans pour autant l’y réduire.

[1] Depuis l’héritage grec (meson/oïkos) et latin (medi­um), le terme de « milieu » a pu pren­dre au XVI­Ie siè­cle un sens physique (Descartes, Mersenne, Pas­cal), au XVI­I­Ie siè­cle un sens physi­co-moral (Mes­mer, Caba­n­is) et médi­cal, au XIXe siè­cle un sens biologique (Lamar­ck, Comte, Bernard), bio-social (Balzac/Zola) ou encore soci­ologique (Durkheim, Tarde). Au XXe siè­cle, le terme de « milieu » a d’abord un sens géo­graphique (Vidal de la Blache) et géo­his­torique (Fer­nand Braudel). A par­tir de 1945, on con­state une explo­sion du con­cept et il est ques­tion au XXème siè­cle du « milieu tech­nique » (Leroi-Gourhan, Friedmann/Ellul, Simon­don).

Référence :

Petit, V. (2013). « Inter­net, un milieu tech­nique d’écriture », in Rojas E. (dir.), Réseaux socion­umériques et médi­a­tions humaines, Paris : Her­mès-Lavoisi­er, 155–173. 

La notion de milieu accom­pa­gne à tra­vers les siè­cles la façon dont l’homme con­fig­ure son rap­port, mou­vant, à un macro­cosme qui le dépasse, et à par­tir duquel il peut pos­er sa sin­gu­lar­ité de sujet humain. Or, avec le numérique, l’homme sem­ble avoir trou­vé les moyens de con­cevoir un milieu à sa mesure, bâti par son lan­gage et ses pra­tiques : struc­turé par du code, c’est-à-dire des lan­gages de pro­gram­ma­tion mul­ti­ples et évo­lu­tifs qui con­stituent le sup­port numérique ; et abri­tant des con­tenus qui, quelle que soit leur nature, passent par une descrip­tion textuelle et s’inscrivent dans un ensem­ble d’échanges lan­gagiers. Façon­né par des écri­t­ures plurielles et col­lec­tives, le numérique en vient ain­si à redéfinir de nou­veaux régimes de com­mu­ni­ca­tion (forums, mes­sages instan­ta­nés, réseaux soci­aux, etc.), de savoir (nou­velles con­di­tions de pro­duc­tion, de val­i­da­tion et de trans­mis­sion), et de mémoire (capac­ités de stock­age, traite­ment des archives, etc.) ; en d’autres ter­mes, il engen­dre une cul­ture à part entière (Douei­hi, 2011).

Qui plus est, le numérique renou­velle la ques­tion du corps. Alors que le milieu – qu’il soit ambiant, tech­nique ou intérieur – a tou­jours été posé à par­tir d’une pen­sée du corps, le milieu numérique dépasse la dialec­tique dedans / dehors, ouvert / fer­mé tra­di­tion­nelle. Il intro­duit un rap­port à un corps aus­si organique que sym­bol­ique, éten­du et redess­iné en per­ma­nence, dans l’ensemble des traces à tra­vers lesquelles il man­i­feste sa présence (pub­li­ca­tions, par­cours de nav­i­ga­tion, etc.), et des lieux au sein desquels il s’éprouve en entrant en rela­tion avec d’autres corps (forums, plate­formes, réseaux soci­aux, etc.). À la fois textuel, dis­cur­sif, social, imagé, il devient en somme un corps hybride, issu du dia­logue com­plexe entre le code infor­ma­tique et les pra­tiques des util­isa­teurs.

Con­sid­éré de la sorte, le numérique se situe dans le pro­longe­ment du « milieu tech­nique » inter­mé­di­aire tel que le définit Leroi-Gourhan (1995), c’est-à-dire à la fois arti­fi­ciel et cul­turel. Mais il ne se lim­ite pas à une fonc­tion médi­atrice. Il appa­raît plutôt comme un milieu alter­natif, sec­ond. Un milieu égale­ment ambiant, pourvu d’un sol (myr­i­ade de sites à habiter, à explor­er, à bâtir) et d’un cli­mat (pen­sé sous forme de flux et d’interactions con­stantes). Bien enten­du, ce milieu numérique n’est pas détach­able du monde : les espaces com­muns, soci­aux, cul­turels et poli­tiques qu’il crée, les actions et les usages qu’il engage, les biens matériels et sym­bol­iques qu’il trans­forme, se situent en inter­ac­tion con­stante avec l’environnement et la société dans lesquels l’homme se trou­ve. Il est plutôt mi-lieu, à savoir lieu inter­mé­di­aire au sein duquel l’homme peut négoci­er les formes de sa présence ; mi-lieu dans lequel il rejoue, ramené à ses pro­por­tions, son rap­port au monde.

Si donc, pour repren­dre l’expression de Bouchardon et Cail­leau (2018), il y a « co-con­sti­tu­tion » de l’homme et du numérique, c’est, nous sem­ble-t-il, par ces inter­ac­tions qui font du numérique un milieu de flux, rela­tion­nel, sans dehors ni dedans ; un milieu dynamique qui est con­sti­tué par les pra­tiques humaines qu’il rend pos­si­ble, et au sein duquel l’homme lui-même se con­stitue cor­porelle­ment, sociale­ment, cul­turelle­ment. La notion de « milieu numérique » per­met de penser le numérique comme un lieu par­courable, co-hab­it­able, où l’homme peut, selon la for­mule de Deleuze, « cess­er de se penser comme un moi, pour se vivre comme un flux, un ensem­ble de flux, en rela­tions avec d’autres flux, hors de soi et en soi » (Deleuze, 1993, p.68).

Références :

Serge Bouchardon et Isabelle Cail­leau, « Milieu numérique et “let­trés” du numérique », Le français aujour­d’hui 2018/1 (N° 200), p. 117–126. URL : https://www.cairn.info/revue-le-francais-aujourd-hui-2018–1‑page-117.htm

Gilles Deleuze, Cri­tique et Clin­ique, Paris, Minu­it, 1993.

Milad Douei­hi, « Un human­isme numérique », Com­mu­ni­ca­tion & lan­gages, 2011/1 (n° 167), p. 3–15. URL : https://www.cairn.info/revue-communication-et-langages1-2011–1‑page‑3.htm

Tim Ingold, Une brève his­toire des lignes, tr. par Sophie Renaut, Paris, Zones sen­si­bles, 2011.

André Leroi-Gourhan, Le Geste et la Parole II. La mémoire et les rythmes [1965], Paris, Albin Michel, 1995.

Marine Riguet, « Le numérique, milieu macran­thrope », Impli­ca­tions philosophiques, novem­bre 2019.

Le terme open traduit en français par ouvert ou libre est un adjec­tif employé aujourd’hui pour désign­er un ensem­ble de pra­tiques et de mou­ve­ments (open source, open data, open gov, open access) visant à inté­gr­er plus d’ouverture, de partage, de trans­parence, de col­lab­o­ra­tion dans des milieux numériques.
L’usage de ce terme en anglais remonte à plusieurs siè­cles avec par exem­ple les notions d’open house ou d’open air employés au quinz­ième siè­cle  pour faire référence à des ressources qui ne sont pas détenues de façon privée mais qui appar­ti­en­nent à tous. Ce qual­i­fi­catif a con­nu un regain d’usage et d’intérêt au XXIème siè­cle avec le développe­ment des logi­ciels free, libre et open source (FLOSS) dans le domaine infor­ma­tique. La pop­u­lar­ité du qual­i­fi­catif open est à rat­tach­er à la notion de free à enten­dre comme libre (et non gra­tu­it). En effet, 4 lib­ertés don­nées aux utilisateurs/rices de logi­ciels sont à rat­tach­er ini­tiale­ment à ces deux ter­mes : le droit d’exécuter un pro­gramme, le droit de le mod­i­fi­er (ce qui néces­site l’accès au code source), le droit de le redis­tribuer avec le choix de faire pay­er ou non, puis le droit de dis­tribuer ces nou­velles ver­sions pour que la com­mu­nauté en béné­fi­cie.

Par la suite, les principes de lib­ertés d’usage con­cer­nant le code source (open source) et le développe­ment de logi­ciels se sont déployés et ont été revendiqués dans d’autres domaines et sphères d’activités notam­ment pour des ser­vices publics (san­té, édu­ca­tion, citoyen­neté). C’est ain­si qu’un ensem­ble de mou­ve­ments au départ mil­i­tants se sont struc­turés avec comme demande la libre cir­cu­la­tion de l’information et de son partage dans une visée démoc­ra­tique, de trans­parence, de redev­abil­ité de l’É­tat (open data/gov) ou encore de retour à des idéaux de partage et d’accès à la con­nais­sance uni­verselle (open education/open access). Ces deman­des inclu­ent des con­sid­éra­tions d’ordre tech­nique et juridique. L’ouverture des don­nées publiques et/ou d’intérêt général (open data) implique par exem­ple une mise à dis­po­si­tion des don­nées avec des licences libres et/ou ouvertes dans des for­mats ouverts, facil­i­tant l’in­teropéra­bil­ité et la réu­til­i­sa­tion aus­si bien par des “machines” que par des humains.
Si l’open était au départ asso­cié à des dis­cours mil­i­tants, son insti­tu­tion­nal­i­sa­tion et son cadrage notam­ment par un ensem­ble de textes de loi (loi République numérique en France en 2016) et direc­tives (open data en Europe en 2019) donne une toute autre dimen­sion à l’open et représente de nou­velles oblig­a­tions de con­for­mité pour dif­férentes organ­i­sa­tions (insti­tuts publiques, entre­pris­es, col­lec­tiv­ités, etc.). Pour saisir les nuances de l’open aujour­d’hui, il est impor­tant de con­sid­ér­er cette notion comme une for­mule, c’est-à-dire un terme employé par toutes et tous mais dont les ten­sions et con­flits asso­ciés pour la mise en oeu­vre de cette ouver­ture révè­lent des con­cep­tions et des visions poli­tiques dif­férentes sous-jacentes. Dans les dis­cours sur l’open, on retrou­ve en effet un gra­di­ent d’implication poli­tique et de visée trans­for­ma­trice. L’‘open peut ain­si à la fois représen­ter pour des organ­i­sa­tions une adap­ta­tion de leur cadre économique, tech­nique, organ­i­sa­tion­nel pour répon­dre aux poli­tiques publiques (open data, open sci­ence) et égale­ment adopter de nou­velles modal­ités de val­ori­sa­tion (économie de la don­née, mutu­al­i­sa­tion et logique d’usage.).L’open  est aus­si asso­cié à un imag­i­naire socio-poli­tique fondé sur la métaphore d’une société infor­ma­tion­nelle (libéral­isme infor­ma­tion­nel) ren­du pos­si­ble par le développe­ment d’In­ter­net et la mise en oeu­vre de gou­ver­nances ouvertes/Peer2Peer et le dépasse­ment des dichotomies habituelles public/privé (notion de com­muns). L’étude des dis­cours et pra­tiques sur l’open offre ain­si une fenêtre d’analyse sur les dynamiques entre indi­vidus, col­lec­tifs et envi­ron­nements numériques et les manières dont les tech­nolo­gies de l’intellect trans­for­ment nos rap­ports aux mon­des et nos modes d’être et d’agir.

Bro­ca, Sébastien. 2013. Utopie du logi­ciel libre. Neu­vy-en-Cham­pagne: Le Pas­sager Clan­des­tin.

Goë­ta, Samuel. 2016. « Instau­r­er des don­nées, instau­r­er des publics : une enquête soci­ologique dans les couliss­es de l’open data ». Paris: Télé­com Paris­Tech. https://pastel.archives-ouvertes.fr/tel-01458098/document.

Gru­son-Daniel, Célya. (2018). « Chapitre 1 – Open : Les Dif­férentes Facettes Du ‘Numérique’ ». In Numérique et Régime Français Des Savoirs En~action : L’open En Sci­ences.  Le Cas de La Con­sul­ta­tion République Numérique (2015). https://zenodo.org/record/1491292#.W_e8BZNKiAw et https://phd-cgd.pubpub.org/pub/facettes-numerique-fr.

Ibek­we-San­juan, Fidelia, et Françoise Paquien­séguy. 2015. « Open, Big, Col­lab­o­ra­tion : trois utopies de l’innovation au 21e siè­cle ». In Big data — Open data. Quelles valeurs ? Quels enjeux ?, édité par Ghis­laine Chartron et Eve­lyne Broudoux, 15‑30. Lou­vain-La-Neuve: De Boeck. https://hal.archives-ouvertes.fr/hal-01271656.

Kreiss, Daniel. 2015. « The Prob­lem of Cit­i­zens: E‑Democracy for Actu­al­ly Exist­ing Democ­ra­cy ». Social Media + Soci­ety 1 (2): 1‑11. https://doi.org/10.1177/2056305115616151.

Loveluck, Ben­jamin. 2012. « La lib­erté par l’information. Généalo­gie poli­tique du libéral­isme infor­ma­tion­nel et des formes de l’auto-organisation sur inter­net ». Paris: École des Hautes Etudes en Sci­ences Sociales (EHESS).

Pomer­antz, Jef­frey, et Robin Peek. 2016. « Fifty Shades of Open ». First Mon­day 21 (5). http://firstmonday.org/ojs/index.php/fm/article/view/6360.

Par oppo­si­tion à l’« argen­tique », le « chim­ique » ou l’« analogique » – du côté des théories anglo-sax­onnes –, l’adjectif « numérique » est à présent adjoint au sub­stan­tif « pho­togra­phie », comme de soi. L’évidence que man­i­feste cette ter­mi­nolo­gie occulte une oppo­si­tion et par­fois une vision téléologique de l’image pho­tographique con­tem­po­raine. Le « numérique » viendrait à la fois créer une rup­ture par rap­port à la « pho­togra­phie anci­enne », et une décli­nai­son mod­erniste de cette dernière. Les théories pho­tographiques, notam­ment en sémi­o­tique[1], ont longtemps con­tribué à créer ce dou­ble jeu, en par­tant notam­ment du proces­sus tech­nique qui dif­férencierait, selon elles, les deux procédés[2]. Repro­duc­tion pour le pre­mier – donc authen­tic­ité du signe indi­ci­aire, trace du réel exis­tant mais passé – et représen­ta­tion dans le sec­ond cas – reflet mimé­tique certes, mais emprunt aux modifications/retouches du proces­sus tech­nique implé­men­té[3]. D’un côté, une pho­togra­phie authen­tique, le « ça-a-été[4] » barthésien mar­qué par la « vérité » des pho­tons de lumière soi-dis­ant révélés par la pel­licule aux sels d’argent ; de l’autre côté le « ça peut être[5] » des pho­tons, à présent traduits en lan­gage binaire et nous éloignant par couche – le « code », dans ce cas – du réel.

L’important n’est pas de nier cette dis­tinc­tion, mais plutôt de recon­sid­ér­er cette vision ontologique à l’aune de régimes de croy­ance à la fois tem­porels, com­mu­ni­ca­tion­nels et sémi­o­tiques. C’est pourquoi, nous pou­vons les définir selon des car­ac­téris­tiques et un imag­i­naire tech­nique, un savoir latéral et des par­cours inter­pré­tat­ifs dis­tincts, comme énon­cés dans le tableau suiv­ant :

Fig­ure 1 : Régimes de croy­ance pho­tographique, des imag­i­naires tech­niques aux pra­tiques de récep­tion sémi­o­tique

  Pho­togra­phie chim­ique Pho­togra­phie numérique
Car­ac­téris­tiques tech­niques (à l’origine des régimes de croy­ance)   Empreinte pho­tonique     Codage numérique
Imag­i­naire tech­nique Expéri­ence et manip­u­la­tion Abstrac­tion sym­bol­ique et automa­tisme
Tra­duc­tion sémi­o­tique : le savoir latéral Indice Icône
Par­cours inter­pré­tat­ifs pos­si­bles[6] Trace, attes­ta­tion, témoignage Mon­stra­tion, manip­u­la­tion (retouch­es), sim­u­lacre

Penser la pho­togra­phie numérique, c’est donc penser en ter­mes de généalo­gie. Si ces régimes peu­vent s’opposer, ils se rejoignent pour­tant à dif­férents niveaux du proces­sus et ne sont mus que par des par­cours sémiosiques à resituer con­stam­ment en con­texte com­mu­ni­ca­tion­nel. La pho­togra­phie numérique peut se réap­pro­prier le dis­cours indi­ci­aire en le replaçant à d’autres niveaux de per­ti­nence du proces­sus inter­pré­tatif. Sur les réseaux soci­aux par exem­ple, l’Agence France-Presse recon­stru­it ce par­cours per­du de l’indice par le numérique, en élab­o­rant ce que l’on peut appel­er des tac­tisignes[7]. Autrement dit, des signes iden­ti­fiés comme des « tac­tiques[8] » élaborées par l’AFP pour con­tourn­er la réécri­t­ure des dis­posi­tifs numériques, et pro­duire de nou­veaux modes de croy­ance sémi­o­tique, fondés sur l’autorité index­i­cale et la ré-insti­tu­tion­nal­i­sa­tion de l’image de presse par le texte – la réin­scrip­tion du logo­type de l’Agence directe­ment sur l’image notam­ment.

Ensuite, il est dif­fi­cile de réduire la pho­togra­phie numérique à son seul mode de cap­ture. La pho­togra­phie numérique c’est aus­si de la pho­togra­phie « numérisée ». Par des tech­niques de repro­duc­tions nou­velles – telles que le scan­nage –, le numérique déjoue le régime de croy­ance argen­tique puisqu’il peut se le réap­pro­prier, dans une forme de « trans­for­ma­tion créa­tive[9] », en lui offrant ain­si les qual­ités du « plas­ti­gramme[10] » et de la dis­sémi­na­tion des dif­férents codes. Les appli­ca­tions telles que Insta­gram, Hip­sta­mat­ic ou encore Pome­lo, pour ne citer qu’elles, pro­posent en effet de récupér­er les codes plas­tiques de l’argentique aux moyens de « fil­tres », sépia par exem­ple, jusqu’à en détourn­er cer­tains effets tels que le « grain » ou le « vignettage »[11] pour se les réap­pro­prier sur le plan textuel. La pho­togra­phie numérique et numérisée est donc une pho­togra­phie de la cir­cu­la­tion et de la « ritour­nelle médi­a­tique[12] », une pho­togra­phie qui se « déter­ri­to­ri­alise[13] » en milieu numérique et peut per­me­t­tre à l’usager de se la réap­pro­prier au moyen du geste « copier/coller », de la retouche et du com­men­taire. Dans ces cas-là, elle est par­fois définie comme « con­ver­sa­tion­nelle » ou « partagée[14] ». Ensuite, on peut à la fois la définir comme une tech­nique et une « cul­ture[15] ». En ce sens, elle est un « objet cul­turel vécu[16] » sujet à la mon­di­al­i­sa­tion des codes cul­turels[17] et des styles énon­ci­at­ifs, jusqu’à la réédi­to­ri­al­i­sa­tion d’archives pho­tographiques[18]. Ses ter­rains sont donc mul­ti­ples : des tech­niques de cap­ture, des réseaux soci­aux, des sites, aux ban­ques d’images en pas­sant par les appli­ca­tions mobiles. Mais son ancrage méthodologique est tou­jours le même et pose tou­jours les mêmes ques­tions : quel régime de croy­ance ? Quelle tra­duc­tion sémi­o­tique ? Quel tra­jet com­mu­ni­ca­tion­nel ? Pour quelles sig­ni­fi­ca­tions ? À la croisée des régimes, la pho­togra­phie numérique est donc un objet cul­turel poly­chrésique[19].

Fig­ure 2 : Con­clu­sion

Pho­togra­phie numérique/numérisée
Com­bi­naisons sémi­o­tiques Icône-indi­ci­aire (le plus sou­vent les deux régimes se croisent et se ren­for­cent ain­si dans leur croy­ance)
Instance com­mu­ni­ca­tion­nelle Cir­cu­la­tion créa­tive (dis­sémi­na­tion, manip­u­la­tion, réap­pro­pri­a­tion)

[1] Citons en exem­ples Hen­ri Van Lier, Roland Barthes, Philippe Dubois et Ros­alind Krauss.

[2] Pierre Bar­boza, 1996.

[3] Voir plus spé­ci­fique­ment cette dis­tinc­tion dans « Pour une sémio­sis du devenir pho­tographique : du régime chim­ique au régime numérique », Maxime Fab­re, 2019.

[4] Roland Barthes, 1980.

[5] Edmond Cou­chot, 1988.

[6] À par­tir de Jean-Marie Scha­ef­fer, 1987.

[7] Maxime Fab­re, 2018.

[8] Michel de Certeau, 1980.

[9] Yves Jean­neret, 2008.

[10] « Mode de repro­duc­tion du texte médi­a­tique qui, à la dif­férence de la copie man­u­scrite ou du clichage imprimé, ne repro­duit pas un objet par­ti­c­uli­er mais ses formes, et peut donc se dis­sémin­er dans une infinité de textes dif­férents », dans Yves Jean­neret, 2014.

[11] Ces effets sont tous trois con­sid­érés, pour la pho­togra­phie chim­ique, comme les aléas négat­ifs des réac­tions des procédés et pro­duits util­isés : le sépia est la couleur d’une pel­licule périmée ; le grain : d’une expo­si­tion à la lumière trop faible ; et le vignettage : un objec­tif trop petit pour la pel­licule, ou d’un pare-soleil trop petit pour l’objectif.

[12] Maxime Fab­re, op. cit.

[13] Gilles Deleuze et Félix Guat­tari, 1980.

[14] André Gun­thert, 2014 et 2015.

[15] Milad Douei­hi, 2013.

[16] Maria Giu­lia Don­dero et Pier­lui­gi Bas­so Fos­sali, 2011.

[17] Dominique Ducard 2010 et Ade­line Wrona, 2014.

[18] Michael Palmer, 2007.

[19] Yves Jean­neret, ibid.

Plate­forme / Plate­formi­sa­tion

Le terme de « plate­forme » peut d’abord s’approcher par ses usages dans la rhé­torique pro­mo­tion­nelle d’acteurs de l’industrie de la tech­nique et des réseaux. Il leur per­met alors d’articuler dif­férentes sig­ni­fi­ca­tions auprès de dif­férents publics. Ain­si, selon les les espaces où ces entre­pris­es choi­sis­sent de com­mu­ni­quer, « plate­forme » ren­voie à un mod­èle de développe­ment en infor­ma­tique, au sou­tien à la parole publique (la plat­form au sens d’estrade, cf. Car­don & Casil­li, 2015), ou à la promesse de nou­velles oppor­tu­nités économiques.

L’intérêt du terme tient ain­si à ce qu’il per­met de neu­tralis­er les ten­sions sus­cep­ti­bles d’apparaître entre les dif­férents publics des entre­pris­es (Gille­spie, 2010). « Plate­forme », con­no­tant une cer­taine absence de relief, tend égale­ment à euphémiser leur part « d’intervention » : encadr­er et ori­en­ter la com­mu­ni­ca­tion, don­ner des con­tours à l’espace pub­lic, par la hiérar­chi­sa­tion ou l’invisibilisation de cer­taines formes d’activités et de cer­taines pro­duc­tions (Gille­spie, 2015).

Pour Nick Srnicek (2019), qui s’inscrit dans une per­spec­tive d’histoire économique, « le cap­i­tal­isme de plate­forme » ren­voie moins à un dis­cours qu’à un type d’entreprise spé­ci­fique qui s’est imposé comme une solu­tion dans un con­texte de baisse de pro­duc­tiv­ité et de disponi­bil­ité de cap­i­taux financiers. Les plate­formes sont alors « des infra­struc­tures numériques qui per­me­t­tent à deux ou plusieurs groupes d’interagir et qui agis­sent comme inter­mé­di­aire » ; « qui pro­posent une série d’outils aux usagers pour pro­duire leurs pro­pres pro­duits » ; «  qui pro­duisent et reposent sur des effets de réseaux » ; qui déploient une vaste gamme de tac­tiques pour s’assurer un afflux con­stant de nou­veaux util­isa­teurs, dont le finance­ment croisé ; qui « sont conçues en vue de séduire des clien­tèles var­iées » ; qui pos­sè­dent des logi­ciels et des équipements infor­ma­tiques comme les serveurs con­stru­its sur la base de codes sources libres.

Au-delà de cette liste de trait, leur car­ac­téris­tique prin­ci­pale serait qu’elles fonc­tion­nent comme « des dis­posi­tifs d’extraction de don­nées ». Cette car­ac­téri­sa­tion s’accompagne d’une typolo­gie en cinq « types » : 

  • plate­formes pub­lic­i­taires comme Google Search,
  • plate­formes nuag­iques qui reposent sur la loca­tion d’équipements,
  • infor­ma­tiques et de logi­ciels pro­prié­taires (Ama­zon Web Ser­vices),
  • plate­formes indus­trielles qui trans­forme les biens en ser­vices (GE, Siemens),
  • plate­formes de pro­duits qui utilisent d’autres plate­formes pour trans­former les marchan­dis­es tra­di­tion­nelles en ser­vices dont elle dégage des frais de loca­tion ou souscrip­tion (Rolls Royce, Spo­ti­fy),
  • plate­formes allégées qui prof­ite de la val­ori­sa­tion des don­nées pour réduire leurs act­ifs au min­i­mum (Uber, AirBNB).

Cette typolo­gie inter­roge néan­moins sur son périmètre, et sur la spé­ci­ficité ou la nou­veauté de ce qu’elle recou­vre : par exem­ple, les grandes radios ont déjà depuis longtemps prof­ité des effets de réseau dans un marché biface, réal­isant des sta­tis­tiques des publics (« extrac­tion de don­nées ») de manière rel­a­tive­ment sys­té­ma­tique pour ven­dre des « publics marchand­ables » (com­mod­i­ty audi­ence, cf. Smyrthe, 1981) à des annon­ceurs. 

Pour car­ac­téris­er ces entre­pris­es et leurs pro­duits, d’autres auteurs inspirés par les recherch­es anglo-sax­onnes sur les médias et la soci­olo­gie des sci­ences et tech­niques (Hel­mond, 2015  ; Plan­tin et al., 2016) font plutôt val­oir l’importance de la notion de « pro­gram­ma­bil­ité ». La cir­cu­la­tion de cette logique, accolée ou non au terme plate­forme, passe notam­ment par :

  • la stratégie de Microsoft et les con­cep­tions du fon­da­teur de Netscape, Marc Andreessen, au début des années 1990,
  • la pro­mo­tion de l’interconnexion des sites et logi­ciels comme ser­vices  par Tim O’Reilly en 2005,
  • les textes de man­age­ment qui penser l’interface entre un « noy­au » organ­i­sa­tion­nel peu mod­u­la­ble et des com­posantes très mod­u­la­bles de façon à favoris­er l’innovation (Bald­win & Wood­ward, 2008),
  • les travaux de recherche sur les con­soles de jeux vidéo (Mont­fort, Bogost, 2009). 

La pro­gram­ma­bil­ité inter­vient en par­ti­c­uli­er dans les API (appli­ca­tion pro­gram­ming inter­face). Ces out­ils asso­ciés à la plu­part des sites, logi­ciels et ser­vices désignés comme plate­formes inci­tent des usagers tiers, en par­ti­c­uli­er les développeurs infor­ma­tiques, à con­stru­ire des pro­duits ou des ser­vices à par­tir d’une pre­mière couche tech­nique conçue pour favoris­er l’interopérabilité et les mash-ups. Les API sont ain­si un exem­ple d’un proces­sus de « plate­formi­sa­tion » qui sup­pose que les entre­pris­es renon­cent à « inter­nalis­er les envi­ron­nements par l’intégration ver­ti­cale », afin de favoris­er les ini­tia­tives de leurs parte­naires. Cette approche, qui vaut par exem­ple pour les édi­teurs de ser­vices de vidéo à la demande, a pour con­séquence des con­traintes telles que des mis­es à jour con­stantes imposées, le ver­rouil­lage (lock-in) des util­isa­teurs, et l’inscription de fonc­tion­nal­ités spé­ci­fiques et de valeurs poli­tiques par le design. 

Une approche par la pro­gram­ma­bil­ité encour­age égale­ment l’étude com­par­a­tive des straté­gies d’entreprise pour com­pren­dre le degré d’ouverture des out­ils four­nis à leurs publics, le sché­ma des flux de don­nées (cen­trifuges-cen­tripètes), et leur mod­u­lar­ité comme organ­i­sa­tions. Des travaux récents ont par exem­ple fait appa­raître com­ment Spo­ti­fy repo­sait sur une pyra­mide de brevets, de flux de don­nées et de logi­ciels appar­tenant à des entre­pris­es tierces (Erik­son et al., 2019). Cette approche invite égale­ment à resituer les acteurs et objets en ques­tion dans la per­spec­tive des recherch­es en sci­ences sociales sur l’histoire longue des infra­struc­tures, les con­di­tions de leur invis­i­bil­ité et de leur fia­bil­ité, et leur rap­port à la régu­la­tion par les Etats.

D’un point de vue com­mu­ni­ca­tion­nel, on peut remar­quer une affinité entre les car­ac­téris­tiques imputées aux « plate­formes » et des propo­si­tions socio-économiques rel­a­tive­ment courantes dans une diver­sité de dis­cours et de courants de recherche. Il s’agit par exem­ple de la ten­dance à situer la valeur économique du côté de la « cir­cu­la­tion » plutôt que de la « pro­duc­tion », ou à accorder le pri­mat à « l’information » (dev­enue « don­nées ») par oppo­si­tion à d’autres ressources (tra­vail humain, usines, cap­i­tal financier). Par ailleurs, les dis­cours qui con­cer­nent la « société de l’information » (Curien, Muet, 2004), de « réseaux » (Castells, 1998), ou encore l’avène­ment du « tra­vail immatériel » (Laz­zara­to, Negri, 1991), par­mi d’autres, sem­blent précéder et pré­par­er la mise en dis­cours et la con­cep­tu­al­i­sa­tion du terme « plate­forme ».

Ce con­stat invite à con­sid­ér­er que dans les années 2010, le terme « plate­forme » prend place au sein d’une for­ma­tion dis­cur­sive (Fou­cault, 1966) puisqu’il fait lui-même l’objet d’investissements par­tic­i­pant d’une « économie de la promesse » (Bul­lich, 2016). Cette for­ma­tion dis­cur­sive sup­pose de pren­dre en con­sid­éra­tion les tem­po­ral­ités croisées de l’innovation tech­nique, médi­a­tique, économique et sym­bol­ique, et notam­ment les effets des dis­cours et des recherch­es académiques sur la façon dont elle se con­stru­it et dont elle est com­prise. Un cer­tain nom­bre théories académiques con­cer­nant « l’intermédiation », « l’infomédiation » et le « courtage infor­ma­tion­nel » précé­dent en effet la pop­u­lar­i­sa­tion du terme « plate­forme »dans les médias comme dans la recherche (Allen, San­tomero, 1997 ; Ordani­ni, Pol, 2001 ; Beng­hozi, 2003 ; Curien, Fauchart, 2003 ; Moeglin, 2005 ; Boure, Smyr­naios, 2006 ; Beuscart, 2007). 

La référence aux « plate­formes » peut dès lors être con­sid­érée comme une manière de dis­cuter, dans les milieux pro­fes­sion­nels comme académiques, du car­ac­tère plus ou moins structurel/déterminé (voir la dis­cus­sion de la notion de « mod­èle » en économie poli­tique, Per­ti­coz, 2012) ou tactique/plastique (Jean­neret, 2014) du fonc­tion­nement économique de cer­taines entre­pris­es. Elle con­duit égale­ment à inter­roger la place qu’occupe l’incertitude sur les débouchés de marché (mar­ket fit) dans leurs straté­gies de val­ori­sa­tion auprès des investis­seurs financiers (dont les sociétés de cap­i­tal-risque), ain­si que la ques­tion du pro­longe­ment ou du dépasse­ment des logiques du cap­i­tal­isme indus­triel (Marx, 1872 ; Wark, 2019), du retour aux logiques du métayage (Bul­lich, 2016) ou à la pro­to-indus­tri­al­i­sa­tion (Heuguet, 2018). 

Enfin, pour analyser les pro­duits et les ser­vices con­vo­qués sous le nom de « plate­forme » en ten­ant compte de la dialec­tique entre l’économie et le dis­cours sur l’économie, une par­tie des chercheurs en sci­ences de l’information et de la com­mu­ni­ca­tion préfère par­fois recourir à des con­cepts met­tant l’accent sur la dialec­tique entre matéri­al­ité et sym­bol­ique, comme « out­ils-mar­ques », « réseaux d’échange micro-doc­u­men­taires » (Jean­neret, 2014) ou « dis­posi­tifs médi­a­tiques » (Heuguet, 2018). Ces con­cepts visent à faire appa­raître com­ment des ressources logis­tiques (ingénierie des sup­ports et des réseaux) et sémi­o­tiques (mise en forme des signes et des « don­nées ») per­me­t­tent d’industrialiser des pra­tiques – pro­fes­sion­nelles ou ordi­naires, intimes ou publiques – et de préempter ou de capter les activ­ités de médi­a­tion sociales ou marchan­des. Les entre­pris­es qui pos­sè­dent des infra­struc­tures de com­mu­ni­ca­tion ou qui édi­tent des pro­duits tech­nologiques passent par la pro­duc­tion de dis­cours d’accompagnement et d’enrôlement (Bul­lich, 2015) et par des for­mats d’inscription et de vis­i­bil­ité qui sus­ci­tent, con­traig­nent et enca­drent les pra­tiques (Badouard, Mabi, Sire, 2016) : celles-ci sont ain­si trans­for­mées en signes (« vues », « likes », « don­nées », « matchs », « course », etc.) qui sont accu­mulés, réin­ter­prétés et val­orisés pour mieux val­oris­er les entre­pris­es elles-mêmes.

La notion de plate­forme peut se définir, de manière très générale, comme un dis­posi­tif tech­nique assur­ant la mise en rela­tion d’au moins deux caté­gories d’agents (offreurs/contributeurs et demandeurs/utilisateurs), par un « chef d’orchestre », piv­ot de cette mise en rela­tion [adap­té de Car­don 2019]. Refor­mulée en inté­grant leur dimen­sion économique, les plate­formes, ou « biens plate­formes », se réfèrent à des marchés mul­ti­faces qui artic­u­lent des « blocs de marchés », offres et deman­des, qui lui sont extérieurs.

Le mod­èle des plate­formes précède l’avènement de notre milieu numérique con­tem­po­rain. Le mod­èle de la grande dis­tri­b­u­tion illus­tre par exem­ple bien ce déploiement d’un dis­posi­tif assur­ant la ren­con­tre entre une demande dis­per­sée de con­som­ma­teurs et d’une offre hétérogène de pro­duc­teurs. De même, le mod­èle économique his­torique de la télévi­sion assure bien la mise en rela­tion entre la demande des téléspec­ta­teurs et l’offre d’annonceurs pub­lic­i­taires. Ces plate­formes d’intermédiation exis­tent donc « en dehors » des écosys­tèmes numériques.

Cepen­dant, les plate­formes ten­dent à être les dis­posi­tifs tech­niques priv­ilégiés con­sti­tu­ant actuelle­ment ce milieu numérique, trans­for­mant / agrégeant les con­tri­bu­tions indi­vidu­elles et dis­per­sées des agents en une sorte d’intelligence ou d’utilité col­lec­tive. Cette pro­duc­tion d’utilité col­lec­tive ouvri­rait pos­si­ble­ment la voie vers de nou­veaux mod­èles économiques : économie col­lab­o­ra­tive ou économie du partage. Or, associ­er ces mod­èles économiques aux plate­formes procède d’un rac­cour­ci nég­ligeant les dif­férentes final­ités de ces dis­posi­tifs, notam­ment économique. Si cer­taines plate­formes visent la con­struc­tion de biens com­muns, dans le sens où elles redis­tribuent l’intégralité de cette util­ité col­lec­tive aux inter­nautes (par exem­ple Wikipedia ou les logi­ciels libres), d’autres ne la restituent que par­tielle­ment, en cap­tant ou marchan­dis­ant au moins une par­tie pour leur pro­pre béné­fice (le mod­èle GAFA).

Ain­si, les plate­formes ne sont pas une spé­ci­ficité de notre milieu numérique. Nous pou­vons alors nous inter­roger sur ce qui fait la sin­gu­lar­ité de ces plate­formes numériques, par­tant du con­stat que cette sin­gu­lar­ité ne relève pas non plus néces­saire­ment d’une « nou­velle économie », ouverte, non marchande, dés­in­ter­médiée, tant le mod­èle des plate­formes se déploie dans des formes hybrides entre mod­èles générat­ifs (tournés vers la pro­duc­tion col­lab­o­ra­tive de biens com­muns) ou extrac­t­ifs (tournés vers la cap­ta­tion de valeur pro­duite par les inter­nautes).

Cette sin­gu­lar­ité tient à un ressort spé­ci­fique des activ­ités et de l’économie numérique : l’effet réseau. Par effet réseau, nous enten­dons le lien qui existe entre util­ité d’un ser­vice et le nom­bre de ses util­isa­teurs. Car­ac­téris­tique de l’économie numérique, cet effet réseau traduit ain­si l’utilité accrue d’un ser­vice par l’augmentation de son nom­bre d’utilisateurs, de manière directe ou indi­recte. Effet réseau direct dès lors que l’utilité d’un ser­vice dépend directe­ment de son nom­bre d’utilisateurs, à l’image des réseaux soci­aux par exem­ple. Effet réseau indi­rect dès lors que le nom­bre crois­sant d’une caté­gorie d’agents induit la crois­sance d’une autre caté­gorie d’agents. Par exem­ple, sur Ama­zon, la fréquen­ta­tion par un nom­bre crois­sant de con­som­ma­teurs sur les places de marché induit une attrac­tiv­ité plus forte pour les vendeurs, qui con­tribuent par là même à ren­forcer la qual­ité du ser­vice (par la diver­sité de l’offre). Activ­er ces effets réseau devient alors la pri­or­ité stratégique des acteurs qui souhait­ent se déploy­er dans ce milieu numérique : aug­menter sa base d’utilisateurs, aug­menter son périmètre de cap­ta­tion d’attention, élargir l’audience… Autant d’activités clés au cœur du mod­èle des plate­formes numériques, que nous pou­vons associ­er à deux spé­ci­ficités.

La pre­mière est que, sur les plate­formes numériques, le dis­posi­tif com­mu­ni­ca­tion­nel ou les ser­vices d’intermédiation devi­en­nent pre­miers. L’utilité col­lec­tive reposant sur l’intensité et la qual­ité des inter­dépen­dances entre acteurs, c’est dans l’intermédiation entre ces acteurs que se crée cette valeur par le réseau. Cette pri­mauté de l’intermédiation se traduit par un posi­tion­nement renou­velé du dis­posi­tif com­mu­ni­ca­tion­nel dans la logique pro­duc­tive. Là où précédem­ment il se con­ce­vait comme un moyen pour dévelop­per et inten­si­fi­er l’échange de pro­duits, il devient sur les plate­formes numériques une pro­duc­tion économique en tant que telle. On com­prend alors la cohérence d’une logique pro­duc­tive dans laque­lle les moyens de pro­duc­tion des pro­duits (les loge­ments pour Airb’n’b, les véhicules et les chauf­feurs pour Uber…) restent très majori­taire­ment extérieurs à la plate­forme et pour laque­lle les ser­vices pro­posés ont pour final­ité l’agrégation d’utilisateurs/contributeurs.

La sec­onde spé­ci­ficité dérive de la pre­mière, de la pri­mauté du dis­posi­tif com­mu­ni­ca­tion­nel. Là où celui-ci vise, clas­sique­ment, à « attach­er » les agents aux pro­duits, son rôle évolue sur les plate­formes puisqu’il vise désor­mais pri­or­i­taire­ment à « attach­er » les dif­férents acteurs de l’échange, stim­uler et dévoil­er les inter­dépen­dances por­teuses de cette util­ité col­lec­tive recher­chée. Faire émerg­er les meilleurs appariements entre offreurs et deman­deurs, sus­citer la « con­fi­ance » entre agents et dans la plate­forme. L’usage inten­sif des don­nées devient alors le cœur de l’activité pro­duc­tive : inciter à la pro­duc­tion de don­nées, les col­lecter puis les agréger, les analyser à l’aide d’algorithmes sont le cœur de com­pé­tences de ces plate­formes, au-delà de toute pro­duc­tion de ser­vice, déléguée à la com­mu­nauté d’utilisateurs con­sti­tuée.

Ain­si, sans en être exclu­sives, les plate­formes se sin­gu­larisent cepen­dant dans ce milieu numérique en ren­ver­sant la place du dis­posi­tif com­mu­ni­ca­tion­nel dans la logique pro­duc­tive : de sec­ond, ou de moyen, il devient pre­mier, ou une fin, afin de catal­yser la pro­duc­tion d’utilité col­lec­tive pour ensuite poten­tielle­ment pou­voir la capter et la val­oris­er.

Références :

Cal­lon, M. (2017). L’emprise des marchés. Paris : Ed. La Décou­verte

Car­don, D. (2019). Cul­ture numérique. Paris : Press­es de Sci­ences Po.

Rochet, J. C., Tirole, J. (2003). « Two-sided mar­kets: an overview. », Jour­nal of the Euro­pean Eco­nom­ic Asso­ci­a­tion, vol. 1, no 4, p. 990‑1029.

Si les con­di­tions d’exercice de la vie privée conçue comme une action en réac­tion à un sen­ti­ment d’intrusion (Rey, 2012) sont con­di­tion­nées par les pos­si­bil­ités d’action offertes par le milieu tech­nique (Rodotà, 1974), la trans­for­ma­tion du milieu tech­nique par la dif­fu­sion de l’informatique en réseau entraîne une mod­i­fi­ca­tion des con­di­tions d’exercice de la vie privée. À l’inverse, les capac­ités de sur­veil­lance et de fichage s’en sont retrou­vées décu­plées (Vital­is et Mat­te­lart, 2014).

La pro­tec­tion des don­nées, de l’allemand « Daten­schutz », est un terme qui fut inven­té à la fin des années 1960 et con­sacré par l’adoption d’une loi de Pro­tec­tion des don­nées en 1970 du Land de Hesse. Cette dernière fut adop­tée en réac­tion au développe­ment de l’informatique perçue comme une men­ace pour le droit à la vie privée et d’autres lib­ertés fon­da­men­tales (Ben­nett, 1992 ; González Fuster, 2014a ; Vital­is, 1988). Con­traire­ment à ce que ce syn­tagme peut laiss­er enten­dre, il ne désigne donc pas unique­ment ou même pri­or­i­taire­ment une tech­nique de sécu­rité des sys­tèmes d’information, mais une nou­velle caté­gorie de droit fon­da­men­tal.

Le droit à la pro­tec­tion des don­nées est garan­ti par l’article 8 de la Charte des droits fon­da­men­taux de l’Union européenne, dans une entrée séparée du droit à la vie privé, garan­ti lui à l’article 7 de cette même charte. La Con­ven­tion européenne des droits de l’Homme ne fait quant à elle pas la dis­tinc­tion. La dif­fi­culté à dis­tinguer le con­tenu de ces deux droits fon­da­men­taux est dis­cuté dans la lit­téra­ture juridique (Clé­ment-Fontaine, 2017 ; González Fuster, 2014b).

L’instrument le plus con­nu du droit de la pro­tec­tion des don­nées est le Règle­ment général de pro­tec­tion des don­nées 2016/679/UE (RGPD), qui est entré en appli­ca­tion le 25 mai 2018 dans l’Union européenne, en rem­place­ment d’une direc­tive de 1995. En France, la loi du 6 jan­vi­er 1978 dite loi Infor­ma­tique et Lib­ertés, mod­i­fiée depuis à plusieurs repris­es, com­plète ce règle­ment d’effet direct en droit interne. La Com­mis­sion nationale de l’informatique et des lib­ertés (CNIL) y est chargée de veiller à l’application de ce cor­pus de règles de droit.

Le RGPD s’applique à tous les cas où des don­nées à car­ac­tère per­son­nel font l’objet d’un traite­ment en tout ou par­tie automa­tisé, ou bien ont voca­tion à fig­ur­er dans un fichi­er. Les don­nées à car­ac­tère per­son­nel sont définies par le RGPD comme étant « toute infor­ma­tion se rap­por­tant à une per­son­ne physique iden­ti­fiée ou iden­ti­fi­able […] » (art. 4). Comme l’a rap­pelé à plusieurs repris­es la Cour de jus­tice de l’Union européenne, ce ne sont donc pas seule­ment les don­nées qui relèvent de la vie privée en tant que telle qui sont des don­nées à car­ac­tère per­son­nel. En pra­tique, toutes les traces numériques sont des don­nées à car­ac­tère per­son­nel au sens de la Loi.

Pour utilis­er des don­nées à car­ac­tère per­son­nel, un organ­isme doit se fonder sur une des bases légales offertes par le RGPD, comme l’exécution d’un con­trat, ou d’une mis­sion de ser­vice pub­lic. Il peut égale­ment sol­liciter le con­sen­te­ment, libre et éclairé, par opt-in, de la per­son­ne que ces don­nées con­cerne. C’est ain­si que le principe juridique du droit à l’auto-détermination infor­ma­tion­nelle se retrou­ve dans les dis­po­si­tions de ce règle­ment.

En con­clu­sion, la pro­tec­tion des don­nées ne définit pas dans l’absolu un domaine infor­ma­tion­nel privé à pro­téger du regard du pub­lic, mais pose le principe d’un con­trôle des per­son­nes sur les don­nées qui les con­cer­nent (Rossi, 2019). Ce même principe se retrou­ve dans des pro­jets de stan­dards tech­niques du Web, comme le pro­jet Do Not Track, qui visent à inté­gr­er dans l’infrastructure matérielle de réseaux de com­mu­ni­ca­tion élec­tron­iques des capac­ités d’action per­me­t­tant aux indi­vidus de choisir les don­nées qu’ils souhait­ent ou non partager.

Ben­nett C.J., 1992, Reg­u­lat­ing pri­va­cy: Data pro­tec­tion and pub­lic pol­i­cy in Europe and the Unit­ed States, Itha­ca, N.Y., Cor­nell Uni­ver­si­ty Press.

Clé­ment-Fontaine M., 2017, « L’union du droit à la pro­tec­tion des don­nées à car­ac­tère per­son­nel et du droit à la vie privée », LEGICOM, N° 59, 2, p. 61‑68.

González Fuster G., 2014a, The Emer­gence of Per­son­al Data Pro­tec­tion as a Fun­da­men­tal Right of the EU, Dor­drecht, Springer.

González Fuster G., 2014b, « Fight­ing For Your Right to What Exact­ly? The Con­vo­lut­ed Case Law of the EU Court of Jus­tice on Pri­va­cy and/or Per­son­al Data Pro­tec­tion », Birk­beck Law Review, 2, 2, p. 263‑278.

Rey B., 2012, « La pri­va­cy à l’ère du numérique », Ter­mi­nal. Tech­nolo­gie de l’information, cul­ture & société, 110, p. 91‑103.

Rodotà S., 1974, « Pro­tec­tion de la vie privée et con­trôle de l’information : deux sujets d’inquiétude crois­sante pour l’opinion publique », dans Ques­tions d’ordre poli­tique soulevées par la pro­tec­tion des don­nées et des lib­ertés indi­vidu­elles, principes et per­spec­tives. Compte-ren­du du sémi­naire, Paris, Organ­i­sa­tion de Coopéra­tion et de Développe­ment Economique (OCDE) (Col­lec­tion études d’informatique), p. 149‑163.

Rossi J., 2019, « L’hypothèse de la vie privée des Anciens et des Mod­ernes », dans George É. (dir.), Numéri­sa­tion de la société et enjeux sociopoli­tiques. Tome 1. Numérique, com­mu­ni­ca­tion et cul­ture, Lon­dres, ISTE (Sys­tèmes d’information, Web et société), p. 77‑88.

Vital­is A., 1988, Infor­ma­tique, pou­voir et lib­ertés (2e éd.), Paris, Eco­nom­i­ca.

Vital­is A., Mat­te­lart A., 2014, Le pro­fi­lage des pop­u­la­tions: Du livret ouvri­er au cyber­con­trôle, Paris, La Décou­verte, 156 p.


[1]Entrée rédigée par Julien Rossi ; .

Le numérique a désor­mais pénétré tous les secteurs de la médecine et de la san­té, depuis la recherche bio­médi­cale jusqu’à la prise en charge des patients en étab­lisse­ments de soins ou à domi­cile.

En recherche, le développe­ment des tech­nolo­gies d’acquisition de don­nées molécu­laires mas­sives aux dif­férentes échelles de l’organisme, dites tech­nolo­gies « ‑omiques » (du type des séquenceurs à ADN de nou­velle généra­tion, des microar­rays à très haute den­sité ou des spec­tromètres de masse très haut débit – autant de tech­nolo­gies qui génèrent quan­tité de don­nées numériques), ain­si que le développe­ment de la bioin­for­ma­tique qui a pour tâche de con­fér­er une sig­ni­fi­ca­tion biologique et médi­cale à ces don­nées en grand nom­bre, a con­duit à la notion de médecine per­son­nal­isée ou de pré­ci­sion.

En amont de la pro­duc­tion de ces don­nées numériques, les bioban­ques ont pour mis­sion de fournir aux lab­o­ra­toires de recherche des échan­til­lons biologiques de très haute qual­ité, afin que les chercheurs puis­sent iden­ti­fi­er et valid­er des bio­mar­queurs d’intérêt diag­nos­tique, pronos­tique, phar­ma­cogéné­tique ou de suivi thérapeu­tique. Or là encore, ces échan­til­lons biologiques, pour être util­is­ables en recherche, doivent être asso­ciés à des don­nées numériques por­tant men­tion des car­ac­téris­tiques biologiques et psy­choso­ciales des don­neurs, ain­si que des don­nées de traça­bil­ité des échan­til­lons eux-mêmes.

Le développe­ment des tech­nolo­gies « ‑omiques » et de la médecine des sys­tèmes fait espér­er la pos­si­bil­ité de mieux inté­gr­er tous les niveaux de com­plex­ité de l’organisme dans des mod­èles mul­ti-échelles, selon une vision à forte pré­ten­tion holis­tique : loin de réduire la per­son­ne à son génome, comme elle a été accusée de le faire dans les années 2000, la médecine per­son­nal­isée et de pré­ci­sion entend désor­mais iden­ti­fi­er et car­ac­téris­er dans leurs moin­dres détails les mécan­ismes expli­quant l’effet, sur la san­té d’un indi­vidu, de tout ce à quoi il est exposé tout au long de sa vie. L’ambition en la matière est d’être le plus exhaus­tif pos­si­ble : pol­lu­ants divers, styles de vie (alcool, tabac, etc.), mais aus­si stress, bruit, champs mag­né­tiques, con­di­tions socio-économiques, normes sociales en vigueur – autant de fac­teur qui peu­vent affecter la san­té d’un indi­vidu s’il y est exposé. Impos­si­ble de con­tin­uer à sépar­er le patient comme corps-objet à soign­er (cure), et le patient comme sujet dont il faut pren­dre soin (care) : tous les aspects qui sont sup­posés définir le sujet en société ont sem­ble-t-il voca­tion à entr­er dans le domaine de com­pé­tence de cette médecine poten­tial­isée par les tech­nolo­gies « ‑omiques ».

Le numérique est aus­si en passe de trans­former les pra­tiques médi­cales les plus divers­es : arrivée des tech­nolo­gies génomiques en rou­tine clin­ique (voir le plan France Génomique 2025), imagerie médi­cale poten­tial­isée par l’Intelligence Arti­fi­cielle, télé-chirurgie et robo­t­ique chirur­gi­cale, recon­fig­u­ra­tion des par­cours de soins autour du dossier médi­cal partagé, ou per­son­nal­isé (DMP), télé-con­sul­ta­tions, télé-soin pour la prise en charge des patients à domi­cile – autant d’illustrations de l’irruption mas­sive du numérique dans le soin.

Les nom­breuses tech­nolo­gies rel­e­vant du quan­ti­fied self, c’est-à-dire de l’automesure par tout un cha­cun, en con­tinu et en dehors de tout cadre médi­cal, d’un large spec­tre de paramètres biologiques, ain­si que l’essor des tests de génomique en ligne (direct to con­sumer genet­ic test­ing), témoignent égale­ment d’une exten­sion sans précé­dent du numérique dans le rap­port des citoyens à leur pro­pre san­té.

Or, toutes ces évo­lu­tions vers la big data med­i­cine, l’e‑santé et la san­té con­nec­tée, touchent aux aspects les plus essen­tiels de la fab­rique des con­nais­sances bio­médi­cales, de la for­ma­tion des médecins et de la pra­tique même de la médecine. Peut-on dire par exem­ple que la sci­ence, désor­mais, peut se pass­er d’hypothèses et atten­dre des don­nées molécu­laires accu­mulées, stock­ées dans de gigan­tesques bases de don­nées, qu’elles finis­sent par « par­ler d’elles-mêmes », dès lors qu’elles sont soumis­es à un traite­ment sta­tis­tique per­ti­nent  – autrement dit, peut-on par­ler de sci­ence sans a pri­ori et de data-dri­ven sci­ence dans le domaine bio­médi­cal ? Peut-on par­ler de la fin de la médecine anato­mopathologique, ou médecine des organes, au sens où les mal­adies sont des­tinées à être définies non plus en ter­mes de lésions organiques, mais en ter­mes de sig­na­ture molécu­laire ? Com­ment la médecine per­son­nal­isée et de pré­ci­sion, éten­due à tous les niveaux de com­plex­ité de l’organisme et à la prise en compte des mul­ti­ples fac­teurs d’expositions envi­ron­nemen­tales, est-elle amenée à s’articuler à l’épidémiologie et aux prob­lé­ma­tiques de san­té publique ? Peut-on crain­dre que demain, le médecin con­fiera à des algo­rithmes les activ­ités qui font l’essence même de sa pra­tique : pos­er un diag­nos­tic, for­muler un pronos­tic, pro­pos­er une option thérapeu­tique adap­tée au patient ? Com­ment for­mer les nou­velles généra­tions de médecins à ces nou­veaux out­ils ?

Référence :

Guchet X. La Médecine per­son­nal­isée. Paris, Edi­tions Les Belles Let­tres, 2016.

Une smart­fic­tion[1] est une fic­tion à lire voire à agir sur son smart­phone. L’enjeu est de com­pren­dre com­ment le sup­port smart­phone per­met un nou­veau genre de jeu entre le réel et la fic­tion (noti­fi­ca­tions, géolo­cal­i­sa­tion…), ou com­ment il déplace ce jeu par rap­port à d’autres sup­ports plus tra­di­tion­nels.

Les smart­fic­tions sont étudiées dans le cadre d’une thèse Cifre hébergée par l’entreprise Col­lec­tif Or Normes, qui développe un out­il d’agencement et d’édition de con­tenu à des­ti­na­tion des auteurs de smart­fic­tions.

Ce for­mat de lec­ture rel­a­tive­ment récent fait événe­ment dans l’histoire de la cul­ture du réc­it, plus pré­cisé­ment celle de la cul­ture de l’écriture et de la lec­ture sur/via écran numérique. En investis­sant le smart­phone comme canal de dif­fu­sion, une autre façon de racon­ter et de lire des his­toires peut émerg­er. En effet, avec le numérique, l’at­ten­tion portée sur l’articulation entre sup­port et nar­ra­tion peut sem­bler encore ren­for­cée. Si le jeu entre sup­port et con­tenu ne date pas du numérique, celui-ci per­met par­fois de ren­dre vis­i­ble cette artic­u­la­tion. Les auteurs ne créent pas pour un out­il ou ne se ser­vent pas d’un out­il comme matéri­al­i­sa­tion d’une idée mais ils créent avec l’outil.

“Le sup­port con­di­tion­nant la nar­ra­tiv­ité” (Bouchardon 2005), com­ment la smart­fic­tion est-elle con­stru­ite pour être jouée sur un smart­phone ?

Quelles sont les pris­es tech­niques, cul­turelles et usuelles pro­pres à un smart­phone et qui sont réin­vesties dans la pro­duc­tion de fic­tions à lire sur smart­phone ? Avec l’arrivée du smart­phone, nous avons vu appa­raître un nou­veau moyen d’accéder à l’information : la noti­fi­ca­tion. Ce mod­ule tech­nique informe l’usager d’une actu­al­i­sa­tion d’un con­tenu. Ain­si, ce n’est plus l’usager qui va vers l’information mais l’information qui vient à lui via le sys­tème d’intrusion noti­fic­tif. Ce jeu sur la tem­po­ral­ité et le “temps réel” du lecteur, avec l’intrusion des noti­fi­ca­tions, est au cœur des préoc­cu­pa­tions struc­turales pour con­cep­tu­alis­er le sys­tème smart­fic­tif.

Par exem­ple, la smart­fic­tion Enterre moi mon amour scé­narise le périple d’une jeune femme, “Nour”, qui migre vers un pays d’Europe dans l’espoir d’un avenir meilleur. Le lecteur lit cette fic­tion à la pre­mière per­son­ne, en incar­nant le com­pagnon de “Nour”, “Madj”.

Lorsque le lecteur (“Madj”) est en train de com­mu­ni­quer avec elle via une sim­u­la­tion de fil de dis­cus­sion type What’s app, son temps réel se super­pose au temps fic­tion­nel. Ain­si, lorsque “Nour” est en ligne, le lecteur syn­chro­nise son temps avec celui de cet envi­ron­nement diégé­tique. Lorsque “Nour est “occupée” ou “hors ligne”, ce com­porte­ment présen­tiel invite le lecteur à quit­ter la smart­fic­tion puisqu’il n’y a plus rien à lire. L’absence de “Nour” dans cet espace de dis­cus­sion fic­tion­nel annule la joua­bil­ité. Le lecteur est à nou­veau invité à rejoin­dre la con­ver­sa­tion quand “Nour” lui envoie un mes­sage et qu’il reçoit une notifc­tion l’invitant à rejoin­dre l’environnement diégé­tique pour pour­suiv­re sa lec­ture. Ain­si, s’affichant sur nos écrans, la noti­fi­ca­tion rythme nos journées. Elle fait événe­ment dans le smart­phone. La smart­fic­tion est un réc­it struc­turé avec les modal­ités tech­niques et usuelles du smart­phone, les événe­ments com­posant le réc­it sont mar­qués par la noti­fi­ca­tion. La noti­fic­tion est le terme que j’ai créé pour dis­tinguer l’environnement virtuel réel (noti­fi­ca­tion) et l’environnement virtuel fic­tion­nel. Au prisme de la notifc­tion, com­ment les auteurs con­stru­isent-ils les his­toires smart­fic­tives ? Com­ment l’in­trigue est-elle con­stru­ite ? Com­ment la nar­ra­tolo­gie fait-elle sys­tème avec la ludolo­gie pour créer des his­toires dans ce nou­veau for­mat de lec­ture ?


[1] J’emploie le terme de “smart­fic­tion” pour iden­ti­fi­er pré­cisé­ment le for­mat de lec­ture d’une fic­tion à lire et à agir sur smart­phone. Il est égale­ment util­isé par une mai­son d’édition numérique russe qui pro­pose au lecteur de recevoir et de lire une nou­velle lit­téraire par semaine, sur son smart­phone. La mai­son d’édition numérique utilise le terme comme dépôt de mar­que alors que je l’utilise pour iden­ti­fi­er un for­mat et une pra­tique de lec­ture rel­a­tive au smart­phone devenant canal de dif­fu­sion d’une fic­tion.

Con­cep­tu­alis­er la sur­veil­lance

Dans La Société Puni­tive (1972–1973) (2013) et dans Sur­veiller et Punir (1975), Michel Fou­cault décrit les con­tours des « sociétés dis­ci­plinaires » qui ont émergé au XVI­I­Ie pour suc­céder aux « sociétés de sou­veraineté ». Il décrit par-là l’organisation des sociétés à économie cap­i­tal­iste autour d’espaces fer­més au sein desquels tran­si­tent les class­es pop­u­laires au cours de leur vie, et au sein desquels il s’agit de gér­er, encadr­er et con­trôler le plus fine­ment pos­si­ble leurs corps afin de trans­former les indi­vidus en force de pro­duc­tion. L’exercice d’un pou­voir coerci­tif au sein des dif­férentes insti­tu­tions de cette société dis­ci­plinaire (écoles, casernes, usine, hôpi­tal, hos­pice…) est décrit par Fou­cault par analo­gie avec le mod­èle d’organisation panop­tique des pris­ons tel qu’il est pen­sé par le philosophe util­i­tariste Jere­my Ben­tham à la fin du XVI­I­Ie siè­cle. Le mod­èle archi­tec­tur­al qu’il pro­pose alors per­met à un seul sur­veil­lant de sur­veiller une mul­ti­tude d’individus incar­cérés, sans que ceux-ci ne puis­sent (sa)voir qu’ils sont effec­tive­ment sur­veil­lés, ce qui a pour effet de leur don­ner l’impression de l’exercice d’une sur­veil­lance con­tin­ue (Ben­tham, 2002).

Ces pro­pos de Fou­cault sur l’organisation d’une société dis­ci­plinaire nous aident à expos­er quelques ori­en­ta­tions pour esquiss­er un début de con­cep­tu­al­i­sa­tion de la sur­veil­lance. Sur­veiller, c’est col­lecter – via des dis­posi­tifs de sur­veil­lance –, accu­muler et traiter des infor­ma­tions sur un ou des individu·s dans l’optique de con­stituer un savoir, alors acquis par l’observation, l’examen, l’enquête, ou encore par la réal­i­sa­tion de sta­tis­tiques. Ain­si, la sur­veil­lance recou­vre dès le XVI­I­Ie siè­cle les domaines du vis­i­ble et du cal­cu­la­ble. Dans un sec­ond temps, ce savoir acquis per­met l’exercice d’un pou­voir par celles et ceux qui gou­ver­nent. Mais en même temps, c’est la sur­veil­lance en elle-même qui exerce un pou­voir sur l’individu sur­veil­lé. Le soci­o­logue Chris­t­ian Laval explique ain­si que l’individu qui se sait sur­veil­lé « reprend à son compte les con­traintes du pou­voir », se les « impose », « se les fait jouer spon­tané­ment sur lui-même ». En con­séquence, « la sur­veil­lance est une arme de nor­mal­i­sa­tion et pas seule­ment de puni­tion d’une trans­gres­sion légale », elle sert à « cor­riger les vir­tu­al­ités » (Laval 2014), et ain­si à pro­duire des normes et des habi­tudes aux­quelles les indi­vidus cherchent à se con­former.

Une sur­veil­lance numérique rad­i­cale

Depuis ce XVI­I­Ie siè­cle où la sur­veil­lance est déjà pen­sée comme devant être général­isée, les dis­posi­tifs de sur­veil­lance, en tant qu’ils sont des « appareils à fab­ri­quer des dis­ci­plines, à impos­er des coerci­tions, à faire con­tracter des habi­tudes » (Fou­cault 2013, p.240), n’ont cessé de se mul­ti­pli­er et d’être affinés. Le philosophe Dominique Ques­sa­da explique que cette rad­i­cal­i­sa­tion con­tem­po­raine de la sur­veil­lance général­isée est la con­séquence de « l’interconnexion des tech­nolo­gies numériques, de la géolo­cal­i­sa­tion, de la vidéo­sur­veil­lance, des bases de don­nées, de la bio­métrie, de l’interception des com­mu­ni­ca­tions ». Ce sys­tème tech­nique fondé sur l’usage des tech­nolo­gies numériques per­met de faire advenir une sur­veil­lance qui « présente les capac­ités d’adhérer en per­ma­nence à son objet » (Ques­sa­da 2014). En somme, les dis­posi­tifs de sur­veil­lance ne captent plus seule­ment nos com­porte­ments dans les espaces clos décrits par Fou­cault, mais dans l’ensemble de nos dif­férents espaces d’existence.

Ain­si dans les espaces clos tels que les espaces de tra­vail, les modes de sur­veil­lance ont évolué, pour s’adapter aux nou­velles formes de tra­vail et à la recherche de ratio­nal­i­sa­tion des coûts au cœur de la société néolibérale. Les dis­posi­tifs numériques ont rem­placé les vig­iles, les con­tremaîtres, les sys­tèmes de pointage et feuilles d’émargement qui assur­aient aupar­a­vant cette sur­veil­lance. Dans les « flex office », les bureaux (qui n’appartiennent plus à per­son­nes) sont équipés de détecteurs de présence pour indi­quer si les postes sont libres ou non. La société Hitachi pro­pose depuis plus de 10 ans un « badge sen­soriel » qui trans­met aux employeur·euses la géolo­cal­i­sa­tion des salarié·es qui le por­tent. Des restau­rants améri­cains s’équipent de dis­posi­tifs de vidéo­sur­veil­lance « intel­li­gents » qui éval­u­ent les per­for­mances des employé·es pour guider, voire automa­tis­er le sys­tème de man­age­ment[1]. Ama­zon a de son côté mis en place un sys­tème automa­tique de mesure des per­for­mances et des temps de pause de ses employé·es capa­ble de licenci­er automa­tique­ment les moins productif·ves[2]. Les exem­ples sont nom­breux.

Dans l’espace pub­lic, des dis­posi­tifs de recon­nais­sance faciale se sont instal­lés en Chine il y a quelques années. Cou­plé au principe de « crédit social », ce sys­tème per­met de trans­former les com­porte­ments des indi­vidus en une note. Les bonnes notes offrent des ser­vices (exa­m­en médi­cal gra­tu­it, emploi, places en mater­nelle…), les mau­vais­es en inter­dis­ent d’autres (trans­ports en com­mun, accès à cer­taines écoles ou à cer­tains emplois…). Depuis 2014, ini­tiale­ment en Grande-Bre­tagne, des pan­neaux pub­lic­i­taires sont équipés de dis­posi­tifs vidéos qui analy­sent nos réac­tions afin d’adapter le con­tenu dif­fusé[3]. Les smart­phones géolo­calisent chaque déplace­ment, et des agences de mar­ket­ing promet­tent aux entre­pris­es de pou­voir « localis­er une per­son­ne afin de la cibler effi­cace­ment[4] » pour la pouss­er à con­som­mer.

Nous sommes égale­ment devenu·es, en par­tie au moins, les pro­pres agents de notre sur­veil­lance. Le sujet de la sur­veil­lance « n’est pas pour­suivi, mais des­sine lui-même la traça­bil­ité de ses actes – le sujet sur­veil­lé émet les sig­naux numériques per­me­t­tant sa sur­veil­lance » (Ques­sa­da 2014). Une con­séquence est le développe­ment de formes d’autocensure de la part d’internautes cher­chant à laiss­er moins de traces numériques risquant de se retourn­er à leur encon­tre (Rou­vroy 2019). Pour car­ac­téris­er les enjeux économiques et poli­tiques liés à l’exploitation de ces traces que nous lais­sons, Shoshana Zuboff par­le de « cap­i­tal­isme de sur­veil­lance ». Elle rend ain­si compte de la marchan­di­s­a­tion de l’ensemble de nos com­porte­ments en ligne à des fins pré­dic­tives (« beha­vo­r­ial pre­dic­tion »), pour pro­duire des com­porte­ments par­ti­c­uliers (« beha­vo­r­ial mod­i­fi­ca­tion »), autant en tant que consommateur·trices qu’en tant qu’électeurs·trices. Comme l’a révélé le scan­dale Cam­bridge Ana­lyt­i­ca, nos traces peu­vent être util­isées dans le but d’infléchir notre vote (Zuboff 2019).

Cette sur­veil­lance numérique général­isée est régulière­ment cri­tiquée, con­sid­érée comme une men­ace pour les lib­ertés publiques, le droit à la vie privée, ou encore la lib­erté d’expression. Mais mal­gré ces cri­tiques, des dis­cours d’accompagnement sont pro­duits pour la ren­dre légitime et jus­ti­fi­able. La recherche de pro­duc­tiv­ité est régulière­ment évo­quée dans le secteur économique. La lutte antiter­ror­iste et la ques­tion sécu­ri­taire sont mis­es en avant dans le secteur poli­tique. En France, c’est la loi rel­a­tive au ren­seigne­ment pro­mul­guée en 2015 qui a validé cette « rad­i­cal­i­sa­tion de la sur­veil­lance d’État » bien après que celle-ci a déjà été mise en place (Tréguer 2019, p249-258). Ain­si est légitimée et jus­ti­fiée économique­ment et poli­tique­ment cette sur­veil­lance du XXIe siè­cle, qui prof­ite de mul­ti­ples ressources numériques pour sat­is­faire son vieux pro­jet de général­i­sa­tion totale et d’orientation, de nor­mal­i­sa­tion des com­porte­ments des indi­vidus sur­veil­lés, ces derniers par­tic­i­pant eux-mêmes active­ment à ren­dre pos­si­ble leur pro­pre sur­veil­lance.

Bib­li­ogra­phie

Ben­tham, J. (2002). Panop­tique. Mémoire sur un nou­veau principe pour con­stru­ire des maisons d’inspection, et nom­mé­ment des maisons de force (Mille et une nuits.).

Fou­cault, M. (1975). Sur­veiller et punir: nais­sance de la prison. Paris, France, Gal­li­mard.

Fou­cault, M. (2013). La société puni­tive: cours au Col­lège de France, 1972–1973. (F. Ewald, A. Fontana, & B. E. Har­court, Eds.). Paris, France, EHESS : Gal­li­mard : Seuil.

Laval, C. (2014). Fou­cault, la sur­veil­lance et nous. Sémi­naire “Poli­tiques de Fou­cault,” Paris X Nan­terre.

Ques­sa­da, D. (2010). « De la sousveil­lance. La sur­veil­lance glob­ale, un nou­veau mode de gou­verne­men­tal­ité ». In Mul­ti­tudes, vol. 1, n° 40, p. 54–59.

Rou­vroy, A. (2019). « Pass­er entre les mailles. Dia­logue entre Antoinette Rou­vroy et Alain Dama­sio ». In Philoso­phie Mag­a­zine, n° 133, p. 58–62.

Treguer, F. (2019). L’utopie déchue: une con­tre-his­toire d’Internet, XVe-XXIe siè­cle. Paris, France, Fayard.

Zuboff, S. (2019). The age of sur­veil­lance cap­i­tal­ism: the fight for a human future at the new fron­tier of pow­er. Lon­don, Roy­aume-Uni de Grande-Bre­tagne et d’Irlande du Nord, Pro­file Books.


[1] https://www.wired.com/story/outback-steakhouse-presto-vision-surveillance/

[2] https://usbeketrica.com/article/chez-amazon-un-algorithme-vire-les-employes-pas-productifs

[3] https://theconversation.com/etude-de-cas-la-reconnaissance-faciale-integree-a-la-publicite-digitale-94382

[4] https://www.dedi-agency.com/campagnes-geolocalisees-visez-juste-en-pensant-e-commerce-et-localisation/

La notion de trans­mé­dia pose la ques­tion de la déri­va­tion d’un con­tenu sur plusieurs espaces médi­a­tiques aux car­ac­téris­tiques pro­pres. Nous l’aborderons ici à tra­vers le prisme des con­tenus fic­tion­nels : leur déri­va­tion sur plusieurs médias pose en effet la ques­tion de l’auctorialité et des jeux de pou­voir dans la créa­tion. Toute œuvre mar­quée par des développe­ments trans­mé­di­a­tiques implique néces­saire­ment une forme d’association entre acteurs, et donc une délé­ga­tion des droits, une négo­ci­a­tion entre les dif­férentes fig­ures con­sti­tu­ant l’environnement indus­triel de la cul­ture. Au-delà des mécan­ismes médi­a­tiques et nar­rat­ifs que les développe­ments trans­mé­di­a­tiques impliquent, cette notion per­met d’interroger les dif­férentes modal­ités de syn­er­gies indus­trielles et entre­pre­neuri­ales qui accom­pa­g­nent les cir­cu­la­tions des con­tenus. Etudi­er ces syn­er­gies, asso­ci­a­tions et frot­te­ments liés aux cir­cu­la­tions médi­a­tiques de la fic­tion implique d’interroger le devenir de la notion même de créa­tion : les fic­tions trans­mé­di­a­tiques sont en effet amenée à une remise en mou­ve­ment con­stante, à des évo­lu­tions et à des ajouts per­ma­nents, obtenus à la suite de négo­ci­a­tions entre acteurs.

Cette pen­sée des liens entre trans­mé­di­al­ité et créa­tion, auc­to­ri­al­ité, et fic­tion, s’ancre à la suite des réflex­ions de Matthieu Letourneux sur « l’énonciation poly­phonique dessi­nant une auc­to­ri­al­ité prob­lé­ma­tique » des œuvres trans­mé­dias. Sa pen­sée s’articule autour de la ques­tion des développe­ments trans­mé­di­a­tiques et des évo­lu­tions indus­trielles et médi­a­tiques :

« Le développe­ment (de logiques trans­mé­di­a­tiques) a été favorisé dans les dernières décen­nies du XXème siè­cle par le déploiement de grands groupes cul­turels investis­sant tous les médias et mul­ti­pli­ant les parte­nar­i­ats avec les indus­triels. L’apparition de ces acteurs s’est traduite par une muta­tion des pra­tiques. Les univers de fic­tion sont conçus dès l’origine pour être déployés sur tous les sup­ports. Les con­cep­teurs de ces straté­gies glob­ales peu­vent dicter leurs con­di­tions aux créa­teurs, et l’œuvre-monde appa­raît comme un archi­texte des­tiné à être décliné en une série de ‘’textes’’. L’objet cul­turel n’est pas iden­ti­fié à une œuvre, ni même à un sup­port, mais à la somme de ses décli­naisons, à une créa­tion « trans­mé­dia » (Letourneux, 2017).

Il importe de bien dis­tinguer des notions qui peu­vent sem­bler proches mais dont les impli­ca­tions en ter­mes de créa­tion et d’auctorialité dif­fèrent rad­i­cale­ment. Ain­si, il con­vient de dis­tinguer la trans­mé­di­al­ité de la trans­fic­tion­nal­ité et de l’adaptation. Marie-Lau­re Ryan affirme par exem­ple que « si le trans­mé­dia est cen­sé devenir une nou­velle forme de nar­ra­tion, il devrait être plus que de l’adaptation, une pra­tique anci­enne ; il devrait racon­ter de nou­velles his­toires ou offrir de nou­velles infor­ma­tions sur un monde fic­tion­nel fam­i­li­er, ain­si que le fait la pra­tique non moins anci­enne de la trans­fic­tion­nal­ité ; et il devrait pour ce faire employ­er de mul­ti­ples médias » (Ryan, 2017).

Nou­velle forme nar­ra­tive fondée sur l’exploitation de plusieurs médias pour l’enrichissement d’un seul monde fic­tion­nel, la trans­mé­di­al­ité est, dans cette per­spec­tive, le lieu idéal pour observ­er jeux de pou­voirs et rap­ports de force entre acteurs. Les recherch­es d’Henry Jenk­ins présen­tent l’intérêt d’étudier la place des publics dans ces cir­cu­la­tions médi­a­tiques et cul­turelles. Sa notion de bra­con­nage cul­turel (Jenk­ins, 2014), phénomène de réap­pro­pri­a­tion et de recréa­tion des œuvres par les « fans », par­fois à l’insu de leurs créa­teurs et pro­duc­teurs, nous per­met de soulign­er l’émergence d’une appar­ente con­tra­dic­tion : un jeu sur les apparences de l’ouverture, de l’enrichissement, de la remise en cir­cu­la­tion de l’u­nivers fic­tion­nel à tra­vers ses cir­cu­la­tions trans­mé­di­a­tiques, en réal­ité mar­quées par le ver­rouil­lage fic­tion­nel, le rem­plis­sage des vides, la neu­tral­i­sa­tion max­i­male de l’incomplétude nar­ra­tive et la réduc­tion du nom­bre d’interprétations pos­si­bles.

L’analyse des cir­cu­la­tions médi­a­tiques de la fic­tion nous per­met ain­si de ques­tion­ner l’émergence d’une fic­tion « ouverte et totale » ; si l’association de ces deux voca­bles peut sem­bler para­doxale, elle per­met d’interroger très fine­ment les modal­ités de créa­tion et de développe­ment d’univers fic­tion­nels trans­mé­di­a­tiques. Ces fic­tions con­stam­ment remis­es en mou­ve­ments et en cir­cu­la­tions se tar­guent pour­tant d’une forme de total­ité et de com­plé­tude, dans la mesure où elles sont dévelop­pées de manière à com­pren­dre le plus de déri­va­tions et de modal­ités de cir­cu­la­tion pos­si­bles. Abor­der la ques­tion des univers nar­rat­ifs sous l’angle de leurs cir­cu­la­tions trans­mé­di­a­tiques per­met ain­si de ques­tion­ner les notions de créa­tion, d’auctorialité, mais aus­si, plus large­ment, de fic­tion.

Références

Hen­ry Jenk­ins, « Rethink­ing ‘Rethink­ing convergence/culture’ », Cul­tur­al Stud­ies, 2014, vol.28

Matthieu Letourneux, Fic­tions à la chaîne, lit­téra­tures sérielles et cul­ture médi­a­tique, Poé­tique, Seuil, 2017

Marie-Lau­re Ryan, « Le trans­mé­dia sto­ry­telling comme pra­tique nar­ra­tive », Revue française des sci­ences de l’information et de la com­mu­ni­ca­tion, 10/2017, para­graphe 7, http://rfsic.revues.org/2548

La vie privée se déroule dans un espace physique et infor­ma­tion­nel qui se dis­tingue tra­di­tion­nelle­ment de l’espace pub­lic. Le droit à la vie privée a été défi­ni par les juristes états-uniens Louis Bran­deis et Samuel War­ren comme étant le droit « d’être lais­sé tran­quille » (War­ren et Bran­deis, 1890) dans un espace privé pro­tégé du regard du pub­lic. Pour Fab­rice Roche­landet, la vie privée recou­vre à la fois une dimen­sion de secret, de tran­quil­lité et d’autonomie indi­vidu­elle (Roche­landet, 2010). Pour Béné­dicte Rey, qui s’inspire des travaux d’Irwin Alt­man, la vie privée est con­sti­tuée d’actions pris­es en réac­tion à un sen­ti­ment d’intrusion (Alt­man, 1977 ; Rey, 2012).

Le milieu tech­nique dans lequel nous vivons nous offre des capac­ités d’agir tout en étant un arraison­nement du futur (Bachi­mont, 2010). Dans cette per­spec­tive, il n’est pas éton­nant de voir que les con­di­tions de pos­si­bil­ité d’actions en réac­tion à un sen­ti­ment d’intrusion sont fonc­tion du milieu matériel et tech­nique. C’est ain­si que l’évolution de l’architecture a joué un rôle déter­mi­nant dans l’histoire de la vie privée (Haber­mas, 1988 ; Prost, 1987 ; Rodotà, 1974).

Si nous admet­tons que le milieu tech­nique dans lequel nous vivons est trans­for­mé par la dif­fu­sion d’ordinateurs élec­tron­iques con­nec­tés en réseaux, dans un proces­sus que nous pou­vons qual­i­fi­er de trans­for­ma­tion numérique, il n’est guère plus éton­nant de s’apercevoir que cette dernière affecte égale­ment les con­di­tions d’exercice d’un droit à la vie privée. Ces évo­lu­tions tech­niques ren­dent entre autres pos­si­bles de nou­velles tech­niques de sur­veil­lance (Vital­is et Mat­te­lart, 2014), tout en ali­men­tant une dynamique de perte de con­trôle infor­ma­tion­nelle et un effon­drement des con­textes dans lesquelles des infor­ma­tions sont con­fiées (boyd, 2012 ; Klein, 2012).

Divers­es études ont démon­tré l’existence d’un para­doxe de la vie privée : alors que les util­isa­teurs d’outils numériques se dis­ent soucieux de leur vie privée, leurs usages met­traient en dan­ger cette même vie privée (Acquisti, Ida et Roche­landet, 2011 ; Nor­berg, Home et Home, 2007). Comme le rap­pel­lent Dominique Car­ré et Robert Pan­i­co (2012), ces com­porte­ments, au lieu d’être sim­ple­ment con­damnés, doivent être com­pris dans un con­texte où l’affichage de soi en ligne joue en rôle dans la con­struc­tion de l’identité et de la place des indi­vidus dans la société. En out­re, là où la « vie privée » a tra­di­tion­nelle­ment désigné un espace (physique et infor­ma­tion­nel) à pro­téger du regard d’autrui, elle peut égale­ment désign­er un désir de con­trôle sur l’accès à soi et à ses don­nées per­son­nelles (Fuchs, 2011).

C’est cette deux­ième accep­tion de la notion de « vie privée » qui sem­ble cor­re­spon­dre aux reven­di­ca­tions con­tem­po­raines de « vie privée » en milieu numérique (Rossi, 2019). C’est notam­ment cette con­cep­tion qui a guidé l’adoption de règles juridiques de pro­tec­tion des don­nées à car­ac­tère per­son­nel à par­tir des années 1970 (Ben­nett et Raab, 2003 ; Rossi, 2018).

Acquisti A., Ida M.F.Mb., Roche­landet F., 2011, « Les com­porte­ments de vie privée face au com­merce élec­tron­ique, Pri­va­cy in Elec­tron­ic Com­merce and the Eco­nom­ics of Imme­di­ate Grat­i­fi­ca­tion », Réseaux, 167, p. 105‑130.

Alt­man I., 1977, « Pri­va­cy Reg­u­la­tion: Cul­tur­al­ly Uni­ver­sal or Cul­tur­al­ly Spe­cif­ic? », Jour­nal of Social Issues, 33, 3, p. 66‑84.

Bachi­mont B., 2010, Le sens de la tech­nique: le numérique et le cal­cul, Paris, Belles let­tres (Encre marine), 185 p.

Ben­nett C.J., Raab C.D., 2003, The Gov­er­nance of Pri­va­cy. Pol­i­cy Instru­ments in Glob­al Per­spec­tive, Alder­shot, Ash­gate.

boyd  danah, 2012, Tak­en out of con­text: Amer­i­can teen social­i­ty in net­worked publics, Uni­ver­si­ty of Cal­i­for­nia-Berke­ley, 410 p.

Car­ré D., Pan­i­co R., 2012, « L’«affichage de soi» comme «puis­sance d’agir». Con­trôle social et enjeux éthiques à l’heure de l’hyperconnectivité », dans Proulx S., Mil­lette M., Heaton L. (dirs.), Médias soci­aux: enjeux pour la com­mu­ni­ca­tion, Québec, Press­es de l’université du Québec, p. 61‑79.

Fuchs C., 2011, « Towards an alter­na­tive con­cept of pri­va­cy », Jour­nal of Infor­ma­tion, Com­mu­ni­ca­tion and Ethics in Soci­ety.

Haber­mas J., 1988, L’espace pub­lic: archéolo­gie de la pub­lic­ité comme dimen­sion con­sti­tu­tive de la société bour­geoise, Paris, Pay­ot (Cri­tique de la poli­tique Pay­ot), 324 p.

Klein A., 2012, « Face­book, quand tu nous tiens », dans Proulx S., Mil­lette M., Heaton L. (dirs.), Médias soci­aux. Enjeux pour la com­mu­ni­ca­tion, Québec, Press­es de l’Université du Québec, p. 105‑116.

Nor­berg P.A., Home D.R., Home D.A., 2007, « The Pri­va­cy Para­dox: Per­son­al Infor­ma­tion Dis­clo­sure Inten­tions ver­sus Behav­iors », Jour­nal of Con­sumer Affairs, 41, p. 100‑126.

Prost A., 1987, « Fron­tières et espaces du privé », dans Ariès P., Duby G. (dirs.), His­toire de la vie privée. Tome 5 : De la Pre­mière Guerre mon­di­ale à nos jours, Paris, Seuil, p. 13‑154.

Rey B., 2012, « La pri­va­cy à l’ère du numérique », Ter­mi­nal. Tech­nolo­gie de l’information, cul­ture & société, 110, p. 91‑103.

Roche­landet F., 2010, Économie des don­nées per­son­nelles et de la vie privée, Paris, Décou­verte.

Rodotà S., 1974, « Pro­tec­tion de la vie privée et con­trôle de l’information : deux sujets d’inquiétude crois­sante pour l’opinion publique », dans Ques­tions d’ordre poli­tique soulevées par la pro­tec­tion des don­nées et des lib­ertés indi­vidu­elles, principes et per­spec­tives. Compte-ren­du du sémi­naire, Paris, Organ­i­sa­tion de Coopéra­tion et de Développe­ment Economique (OCDE) (Col­lec­tion études d’informatique), p. 149‑163.

Rossi J., 2018, « Qu’est-ce que le droit à la pro­tec­tion des don­nées à car­ac­tère per­son­nel ? », Work­ing Paper, Geopol­i­tics of Risk Work­ing Papers, 1/2018, Paris, Chaire de géopoli­tique du risque de l’Ecole nor­male supérieure.

Rossi J., 2019, « L’hypothèse de la vie privée des Anciens et des Mod­ernes », dans George É. (dir.), Numéri­sa­tion de la société et enjeux sociopoli­tiques. Tome 1. Numérique, com­mu­ni­ca­tion et cul­ture, Lon­dres, ISTE (Sys­tèmes d’information, Web et société), p. 77‑88.

Vital­is A., Mat­te­lart A., 2014, Le pro­fi­lage des pop­u­la­tions: Du livret ouvri­er au cyber­con­trôle, Paris, La Décou­verte, 156 p.

War­ren S.D., Bran­deis L.D., 1890, « The Right to Pri­va­cy », Har­vard Law Review, 4, 5, p. 193‑220.

envelope-ofacebook-official