« Ethique au futur » et pilotage du développement technoscientifique

Analyse 2018 – Par Alain Loute
Maître de conférences au Centre d’éthique médicale (EA 7446), Université Catholique de Lille

Face aux catastrophes sanitaires, aux crises écologiques, aux peurs et craintes suscitées par le développement technologique, un nouveau mot d’ordre éthique est énoncé. Face à ce développement, la conscience éthique doit se tourner résolument vers le futur. Cette analyse propose un regard critique sur les risques que cette éthique au futur, qui vise en principe la mise en place d’une démocratisation du développement technique, n’aboutisse qu’à renforcer l’emprise de certains acteurs sur ce développement.

INTRODUCTION

Face aux catastrophes sanitaires, aux crises écologiques, aux peurs et craintes suscitées par le développement technologique, un nouveau mot d’ordre éthique est énoncé. Il nous faut anticiper les bénéfices et risques du développement technologique. Nos sociétés ne peuvent se restreindre à une logique réparatrice et indemnisatrice des nuisances générées par celui-ci. Face à la marche de ce développement, la conscience éthique doit se tourner résolument vers le futur.

Dans son livre La société de l’anticipation, Eric Sadin nous rappelle qu’une « partie de la conscience philosophique de la seconde partie du XXème siècle s’est efforcée de rappeler la mission nécessairement anticipative et pour autant vertueuse de la charge publique, devant désormais concilier principes politiques et éthiques, notamment par la production d’expertises régulières émanant de compétences multiples »[1]. L’éthique – pour reprendre des termes de Hans Jonas – s’est faite « éthique de l’avenir »[2], « éthique du futur ». Anticiper les impacts négatifs du développement technologique deviendrait un « impératif catégorique », un devoir moral. Il faut pouvoir développer une conscience de la portée de nos actes qui soit à l’égal de notre puissance technique.

En ressort, au niveau éthique, une nouvelle conception de la responsabilité. Certes, dans son usage juridique classique, la responsabilité se voit toujours attribuer un sens bien délimité :

en droit civil, la responsabilité se définit par l’obligation de réparer le dommage que l’on a causé par sa faute et dans certains cas déterminés par la loi ; en droit pénal, par l’obligation de supporter le châtiment. On peut observer la place donnée à l’idée d’obligation : obligation de réparer ou de subir la peine. Est responsable quiconque est soumis à ces obligations[3].

Mais à côté de ce cadre, le philosophe Paul Ricoeur pose le constat d’une véritable inflation de la responsabilité, bien au-delà des limites assignées par l’usage juridique.

L’adjectif responsable entraîne à sa suite une diversité de compléments : vous êtes responsable des conséquences de vos actes, mais aussi responsable des autres, dans la mesure où ils sont commis à votre charge ou à votre soin, et éventuellement bien au-delà de cette mesure. À la limite vous êtes responsable de tout et de tous[4].

 

La référence à l’obligation demeure, mais dans un sens radicalement transformé. Être responsable, c’est ici répondre à une obligation de faire qui déborde le cadre de la réparation et de la peine. C’est répondre à l’obligation de prendre en charge l’autre, le vulnérable, les générations futures, etc. « Enoncée en termes de portée, la responsabilité s’étend aussi loin que nos pouvoirs le font dans l’espace et dans le temps »[5].

L’impératif d’anticipation s’inscrit dans cette inflation du concept de responsabilité. Le concept contemporain d’« innovation responsable » prôné par la Commission Européenne met ainsi en son cœur cet impératif. Pour Richard Owen, une démarche d’innovation responsable est une démarche « anticipatoire » qui décrit et analyse « ces impacts anticipés ou potentiellement anticipés qui peuvent émerger, qu’ils soient économiques, sociaux, environnementaux ou autres »[6]. Pour ce faire, des « outils éthiques » sont également créés. À titre d’exemple, David Wright[7] a produit un cadre d’évaluation des impacts éthiques, a framework for the ethical impact assessement, afin de permettre aux stakeholders – les parties prenantes – de s’assurer que les implications éthiques des technologies soient examinées avant leur déploiement.

Cette exigence d’anticipation est au cœur du programme européen pour la recherche et le développement de la commission européenne. Dans le cadre de la « Responsible Research and Innovation », l’accent est mis en outre sur le fait que cette anticipation doit prendre la forme d’une collaboration entre les acteurs de l’innovation et ceux de la société civile. Cette éthique au futur doit prendre une forme délibérative, s’appuyant sur une collaboration de l’ensemble des parties prenantes. L’évaluation des impacts éthiques doit alors s’appliquer en suivant des méthodologies participatives de type focus group, conférences de consensus, citizen panel, etc. Concrètement, une démarche d’innovation responsable doit consulter et faire participer les citoyens à l’évaluation des impacts éthiques.

L’émergence d’une nouvelle conscience éthique tournée vers le futur, un futur à anticiper et à discuter collectivement, semble, de prime abord, répondre à de nombreuses critiques du développement technologique. Prenons à titre d’exemple les réflexions de Michel Callon, Pierre Lascoumes et Yannick Barthe qui, dans le livre Agir dans un monde incertain, réfléchissaient à la manière de « démocratiser la démocratie ». Leur point de départ était que bien « que notre monde commun se décide en grande partie dans les laboratoires, il n’est discuté qu’en dehors des laboratoires »[8]. À lire ces auteurs, la parole de la société civile intervient toujours en retard, dans l’après-coup. Des choix sont faits qui ont pour effet de réellement transformer notre monde, sans qu’ils aient pu être débattus. « Certes ces choix sont ensuite évalués par les marchés ou discutés dans les arènes politiques conventionnelles, mais ces discussions se situent en aval, une fois écartés d’autres chemins, d’autres voies qui auraient sans doute mérité d’être considérés pour être débattus plus largement »[9]. Le « peuple » ne peut plus alors exprimer sa volonté qu’une fois le monde déjà largement façonné.

Partant de ces critiques, on ne pourrait que se satisfaire de la montée en puissance d’une éthique du futur. Il ne s’agirait plus seulement, pour le public, d’avaliser, en bout de course, les produits de l’innovation, mais d’intervenir en amont pour délibérer sur les chemins d’évolution de la technologie. À mes yeux, si une telle éthique au futur répond en partie aux vœux d’une démocratisation du développement technique, elle doit cependant être analysée plus en détail et de manière critique. Ma thèse est que selon la forme qu’elle prend, elle peut constituer une forme déguisée de pilotage du développement technoscientifique. Loin de constituer une brèche dans la technocratie, elle peut malheureusement être plutôt ce qui permet à des acteurs politiques et industriels délégitimés de retrouver légitimité et pouvoir d’action dans le système technique. Je voudrais mettre à jour ce risque en dégageant différentes critiques que l’on peut adresser à cette dynamique d’éthique du futur.

  1. Un futur anticipable et inéluctable ?

Je m’appuierai particulièrement sur les travaux du philosophie Xavier Guchet qui, dans son livre Philosophie des nanotechnologies, a mené une critique de fond de ce qu’il appelle les approches ELSI, les éthiques qui cherchent à anticiper les impacts éthiques, légaux et sociaux. Le premier reproche adressé à ces approches que Guchet qualifie d’éthiques « au » futur est qu’elles prétendent tenir le futur pour anticipable, « via la fabrique de scénarios qui finissent par être pris pour la réalité elle-même »[10]. Or, le futur reste largement indéterminé. Pour le philosophe des techniques Andrew Feenberg, le regard historique sur le développement technologique passé permet de prendre conscience que « il y a toujours d’autres alternatives techniques viables qui auraient pu être développées à la place de celles qui ont été choisies »[11]. Pour Feenberg, les fonctions techniques ne sont pas prédéterminées, « on les découvre au cours de leur développement et de leur utilisation »[12].

De plus, l’autre risque de cette éthique au futur est de se tourner vers le futur au détriment d’un examen précis des recherches en cours. Tel semble être le cas de l’éthique robotique contemporaine selon Paul Dumouchel et Luisa Damiano dans leur livre Vivre avec des robots, Essai sur l’empathie artificielle. Ces derniers pensent notamment à des auteurs comme Wallach et Allen, dans Moral Machines, Teaching Robots Right from Wrong, qui proposent un programme visant à enseigner aux robots la différence entre le bien et le mal, à en faire des « agents moraux artificiels ». Or, de l’avis même de certains des protagonistes de l’éthique robotique, « nous sommes encore loin de pouvoir créer des agents artificiels autonomes susceptibles d’être de véritables agents moraux. Selon eux, nous ne savons même pas si nous en serons capables un jour. Nous ne savons pas si de telles machines sont possibles »[13].

Une des réponses avancées par les tenants de l’éthique robotique est alors qu’

il ne faut pas attendre pour élaborer de telles règles que nous soyons pris au dépourvu par l’irruption soudaine d’agents artificiels autonomes. Il est important de commencer déjà à se préparer à un avenir inévitable. Les philosophes doivent dès aujourd’hui participer au développement des robots qui demain peupleront notre quotidien en mettant au point des stratégies qui permettent d’inscrire dans les robots des règles morales qui contraignent leur comportements[14].

Ce thème de l’autonomisation inévitable des machines est puissant. Parmi tous les possibles, l’attention se trouve focalisée sur des possibles posés comme « inéluctables ». Une telle focalisation de l’attention pose plusieurs questions : d’où vient que l’on puisse soutenir cette inéluctabilité ? D’autre part, elle détourne l’attention d’enjeux de pouvoir qui se posent dès à présent, à savoir que l’autonomisation des robots, le fait de leur déléguer des décisions et de leur laisser choisir par eux-mêmes signifie peut-être la perte du pouvoir de décision de quelques-uns, mais intensifie aussi la concentration de la décision dans les mains de certains (les programmateurs, les propriétaires des robots, etc.).

Enfin, cette démarche est critiquée pour sa conception implicite du temps, car celui-ci est toujours envisagé comme un temps linéaire. Dans un article récent, Bernadette Bensaude-Vincent utilise l’expression de « flèche du temps » : « On questionne rarement la figure du temps qui sous-tend la volonté d’anticiper le futur. Il va de soi que le temps se déroule comme un fleuve, avec un amont et un aval »[15]. Or pour un auteur comme Guchet, le temps du développement technique est un temps « distordu » qui ne peut s’épuiser dans l’actualité d’une analyse d’impact. Guchet reprend les analyses de Michel Serres, pour qui nous ne sommes pas contemporains de nos techniques. « Un véhicule automobile est un feuillage de temporalités hétérogènes, depuis celle de la roue dont « l’invention » se perd dans un passé multimillénaire, jusqu’à celle des systèmes électroniques les plus sophistiqués ou des matériaux composites »[16]. Ainsi, « la médiation technique inscrit au sein des groupes humains l’inactualité d’un passé mais aussi celle d’un futur »[17] : « Les techniques introduisent à ce que Rip appelle une ontologie prospective : l’étoffe du monde a un élément de prospective, non pas parce qu’il contient des promesses et que des scénarios sont écrits, mais parce que le futur est déjà là, dans les configurations présentes et en devenir de la technique »[18]. Pour Guchet, une distorsion principielle traverse donc nos sociétés : des formes d’inactualité travaillent le présent des interactions techniques. Parce que les objets techniques constituent à la fois des traces des actions du passé, comme peuvent l’être les objets archéologiques, et une puissance de transformation de la société à proprement parler inanticipable, ils débordent de ce que l’on peut en dire aujourd’hui.

  1. Les technologies se réduisent-elles à leurs applications ?

D’autres critiques mettent en avant le fait que les « évaluations d’impacts éthiques » se centreraient avant tout sur les applications des technologies. Pour Guchet, c’est particulièrement le cas des nanotechnologies. On se centre sur leurs applications, au détriment d’un examen attentif des nano-objets de laboratoire qui n’ont parfois même pas encore d’application identifiées.

Une insuffisance de ces approches est alors de ne pas pouvoir aborder de manière satisfaisante les questions qui ne tombent pas sous la catégorie des « impacts déterminables » – comme par exemple les transformations de la condition humaine, la manière dont les technologies transforment nos perceptions et évaluations, autant de transformations difficiles à évaluer en termes de couts-bénéfices d’une application.

Des auteurs comme Swierstra[19] vont alors préconiser que l’attention quasi exclusivement attribuée aux hards impacts soit contrebalancée par une attention aux soft impacts. Les hard impacts correspondent aux dommages causés à l’environnement : toxicité, etc, tandis que les soft impacts renvoient à la façon dont les nanotechnologies peuvent concrètement affecter nos évaluations morales et notre condition humaine. De manière plus générale, les catégories utilisées dans les démarches d’éthique au futur devraient davantage être questionnées.

  1. Vers une critique politique de l’éthique au futur

La thèse que je voudrais mettre en avant est que ces critiques doivent impérativement se prolonger dans une critique politique. Je pense que la pratique de cette éthique au futur peut faire émerger une forme de pilotage du système technique qui n’est pas questionné. Autrement dit, un des risques est que certains acteurs se servent de cette « éthique au futur », représentée par exemple par le paradigme de l’innovation responsable, pour imposer un chemin forcé d’évolution des technologies. Je voudrais illustrer ce point à partir de différentes catégories qu’il me semble essentiel de mettre en avant lorsque l’on parle d’éthique du futur.

Scénario

Xavier Guchet a fait, dans son livre Philosophie des nanotechnologies, une analyse approfondie de la mobilisation du concept de scénario dans le développement technique. Pour lui, « le scénario est devenu le support et le médium de notre relation au futur, il est le cadre dans lequel nous donnons du sens au présent en l’inscrivant dans le temps »[20]. Dans son livre, Guchet propose une typologie et une analyse fine des scénarios des nanotechnologies. Je m’attarderai seulement ici sur les scénarios à base de feuille de route.

L’objectif d’une feuille de route est de fixer une stratégie dans un horizon temporel défini et d’indiquer les moyens à mettre en œuvre pour l’atteindre. (…) La feuille de route n’est pas à proprement parler anticipatrice, elle ne fournit pas une description complète du futur, elle ne prétend pas dire ce que sera réellement le futur : elle construit un futur possible, hypothétique, en sélectionnant des facteurs considérés comme stratégiques et supposés conduire vers ce futur (…) En résumé, le futur des scénarios est un futur construit sur la base d’une sélection des éléments jugés pertinents[21].

Les feuilles de route, road maps, donnent forme à nos représentations du temps. Elles mettent en forme un temps linéaire, livrant une chronologie des étapes à atteindre, et assignant à chacun les tâches à entreprendre. La performativité d’un tel cadrage temporel, produit par la scénarisation du futur, est importante. Elle permet d’attirer l’attention sur certains facteurs au détriment des autres, tout en se prémunissant d’une critique frontale, arguant du fait qu’il ne s’agit que d’hypothèses. De plus, les scénarios peuvent être révisés au fil du temps, en fonction de l’évolution réelle des choses ou de l’évolution des intérêts en présence. Le temps des scénarios est donc un temps malléable, travaillable. À travers l’imposition de scénarios, le temps est construit, cadré selon une forme qui permet son pilotage.

D’autres scénarios peuvent avoir comme visée de présenter l’évolution technique comme inéluctable, déterminée et autonome. Ainsi en va-t-il de la mobilisation contemporaine de la compréhension de l’innovation comme « destruction créatrice » (selon l’expression de l’économiste Werner Sombart diffusée par Schumpeter). Selon un auteur comme Eric Topol[22], l’innovation redessinera radicalement et nécessairement les réseaux sociotechniques existants.

Ces modes de scénarisation du futur peuvent littéralement avoir pour effet de « coloniser le futur », pour le dire avec les mots de Didier Bigo. Cette expression, initialement développée par lui dans le cadre d’une réflexion sur les technologies de surveillance[23], renvoie aux prétentions et stratégies des experts et professionnels de ces technologies. Ces derniers appréhendent le futur comme un « futur antérieur, comme un futur déjà fixé, un futur dont ils connaissent les événements »[24]. L’auteur analyse alors ce qu’il appelle la « matrice du futur antérieur », ensemble de coordonnées opératoires qui fonctionnent comme des grilles traduisant le futur comme « un futur qui est connu comme le serait le passé »[25]. Ils veulent réduire le futur à une seule figure du futur, celui du worst case scenario. Ce futur commande alors ni plus ni moins que le présent. Or, de nombreuses lignes d’évolution sont possibles. Poser le futur comme inéluctable, c’est naturaliser le progrès technologique, c’est empêcher une société de délibérer sur ses lignes d’évolution possibles.

Promesse

Ces scénarios peuvent également prendre une forme attractive, mobilisant les acteurs dans un véritable « régime de promesses technoscientifiques », pour reprendre le terme d’un article de Pierre-Benoît Joly[26]. L’innovation technologique prend place dans une économie des promesses qui structurent les attentes de tous les acteurs. La prolifération actuelle de promesses technoscientifiques doit être mise en regard de l’évolution du marché de la connaissance et de l’évolution des modes de financement de celle-ci. « Les promesses sont ainsi des stratégies pour capter des ressources attribuées sur une base compétitive »[27]. Ces promesses ont ainsi une influence certaine sur les politiques de financement de la recherche. À titre d’exemple, le développement de l’e-santé est structuré par un « business de promesses ». Sarah Franklin parlait déjà de certaines technologies médicales comme de « technologies de l’espoir ». L’e-santé renforce encore cette dimension de promesse et d’espoir. Néanmoins les promesses tardent parfois à se réaliser[28].

Plan

Une dernière catégorie importante à interroger est celle de « plan ». Non sans contradiction et ambiguïté, le futur du développement technologique est bien souvent abordé à partir de la notion de plan. Afin d’expliciter ce point, partons de l’exemple du plan belge de l’e-santé[29]. En Belgique, un plan e-santé volontariste et ambitieux pilote le développement du secteur. Le plan part de la conviction que « l’e-santé n’est pas une fin en soi, mais un moyen de maintenir et, lorsque c’est possible, d’améliorer la qualité, l’accessibilité et la pérennité des soins de santé »[30]. Au cœur de ce plan, le projet de sortir d’une « logique de silos » et d’accélérer le développement d’un système de santé intégré. Le plan belge part également de cette idée que les technologies numériques vont faire du patient le « copilote » de sa santé, notamment en lui permettant d’accéder à des données de santé le concernant, grâce au « personal health record ».

L’ambiguïté tient au fait que l’e-santé est présentée, de manière déterministe, comme un horizon inéluctable du développement de nos systèmes de santé. La conviction de Maggie De Block est que « l’e-santé a démarré comme un TGV. On n’arrêtera plus l’utilisation des technologies numériques dans le cadre des soins de santé »[31]. Pourtant, ce plan, et ses 20 points d’action, sont la marque d’une action politique volontariste forte. De plus, force est de constater que ce plan e-santé propose un pilotage du développement de l’e-santé numérique qui reste très directif et descendant. Dans une étude récente, Christian Legrève soulève que la gouvernance de ce plan d’e-santé – explicitée dans le point 20 du plan « Gouvernance, implémentation et monitoring e-santé » – est loin de s’appuyer sur les multiples parties prenantes de notre système de santé. La possibilité pour les acteurs de terrain d’intervenir semble réduite. De plus, selon lui, « on ne trouve aucune indication sur une évaluation d’impact ou une démarche de remise en question des priorités. Il n’est fait mention d’aucun critère d’évaluation, en-dehors de la vitesse de mise en œuvre du plan »[32]. La notion de plan navigue ici entre scénario, roadmap, promesse et horizon inéluctable du développement de nos systèmes de santé.

CONCLUSION

Nul doute que la volonté de délibérer collectivement sur les chemins à venir du développement technologique est essentielle. À ce titre, l’éthique du futur et l’innovation responsable ouvrent un chantier d’une importance capitale. Il ne peut être question de se limiter à agir dans l’après-coup, dans une seule logique d’indemnisation et de réparation des dommages du développement technique de nos sociétés. Mais il faut néanmoins questionner la forme que prend cette éthique au futur. Sur ce point, il est essentiel de formuler des critiques d’ordre politique, comme j’ai essayé de l’illustrer ici. Exercer un tel regard critique est capital. Le risque, sinon, est que cette éthique au futur ne joue qu’un rôle idéologique qui masque l’enjeu du pilotage de nos systèmes techniques, du renforcement de la technocratie et de l’élimination des conditions d’une démocratie technique véritable.

Alain Loute

Maître de conférences au Centre d’éthique médicale (EA 7446), Université Catholique de Lille.

  • [1] Eric SADIN, La société de l’anticipation, Le web précognitif ou la rupture anthropologique, Editions inculte, p. 168.
  • [2] Hans JONAS, Pour une éthique du futur, Paris, Payot-Rivages, 1998, p. 70.
  • [3] Paul RICOEUR, « Le concept de responsabilité, Essai d’analyse sémantique », in Le juste 1, Paris, Seuil, 1995, pp. 41-70, p. 41.
  • [4] Ibid., p. 42.
  • [5] Ibid., p. 63.
  • [6] Richard OWEN, « Des valeurs coopératives à l’innovation responsable », in Projectics / Proyéctica / Projectique, n°11-12, 2012/2, p. 13-21, p. 18.
  • [7] David WRIGHT, « A Framework for the Ethical Impact Assessment of Information Technology », in Ethics and Information Technology, 13, 2011, pp. 119-226, p. 200.
  • [8] Michel CALLON, Pierre LASCOUMES et Yannick BARTHE, « La démocratie dialogique casse-t-elle des briques ? », in Cosmopolitiques, n° 3, 2003, pp. 108-130, pp. 109-110.
  • [9] Michel CALLON, Pierre LASCOUMES et Yannick BARTHE, Agir dans un monde incertain, Essai sur la démocratie technique, Seuil, Paris, 2001, pp. 103-104.
  • [10] Xavier GUCHET, Philosophie des nanotechnologies, Paris, Hermann, 2014, p. 128.
  • [11] Andrew FEENBERG, (Re)penser la technique, Vers une technologie démocratique, Paris, La Découverte, 2004, p. 33.
  • [12] Ibid., p. 57.
  • [13] Paul DUMOUCHEL et Luisa DAMIANO, Vivre avec des robots, Essai sur l’empathie artificielle, Paris, Seuil, 2016, p. 191.
  • [14] Ibid., p. 191-192.
  • [15] Bernadette BENSAUDE-VINCENT, « Comment sortir du piège de la flèche du temps ? », in Revue française d’éthique appliquée, 2016/2, n° 2, pp. 90-98, p. 90.
  • [16] Xavier GUCHET, Philosophie des nanotechnoologies, op. cit., p. 21.
  • [17] Ibidem.
  • [18] Ibid., p. 22.
  • [19] Tsjalling SWIERSTRA, « Nanotechnology and Technological Change », in Ethics and Politics, vol. XV (1), 2013, pp. 200-219.
  • [20] Xavier GUCHET, Philosophie des nanotechnologies, op. cit., p. 174.
  • [21] Ibid., p. 178.
  • [22] Cf. Eric TOPOL, The creative destruction of medicine : how the digital revolution will create better health care, 2013.
  • [23] Ces réflexions sont développement de manière plus approfondie dans Nathalie GRANDJEAN et Alain LOUTE, « Que faut-il entendre par ‘virtualisation’ de la surveillance ? », in Kairos, mai 2016.
  • [24] Didier BIGO, « Sécurité maximale et prévention ? La matrice du futur antérieur et ses grilles », in B. Cassin (éd.), Derrière les grilles, Sortons du tout-évaluation, Paris, Fayard, 2014, p. 111-138, p. 126.
  • [25] Ibid., p. 119.
  • [26] Pierre-Benoît JOLY, « Le régime des promesses technoscientifiques », in M. Audétat (éd.), Sciences et technologies émergentes : pourquoi tant de promesses ?, Paris, Hermann, 2015, p. 31-47.
  • [27] Marc AUDETAT, « Introduction : Sciences et technologies émergentes : pourquoi tant de promesses ? », in M. Audétat (éd.), Sciences et technologies émergentes : pourquoi tant de promesses ?, op. cit., p. 5-27, p. 11.
  • [28] Annemarie VAN HOUT et al., « Pourquoi les attentes suscitées par la télésurveillance sont souvent déçues. Étude ethnographique d’un dispositif de télésuivi infirmier en soins palliatifs », Réseaux 2018/1 (n° 207), p. 95-121.
  • [29] Pour de plus amples développements de cette analyse, le lecteur pourra se rapporter à Alain LOUTE, « Quel pilotage de la e-santé ? », in Démocratie, n°7/8, 2018, pp. 16-18.
  • [30] Cf. http://www.plan-egezondheid.be/fr/lexique/.
  • [31] Cf. http://www.deblock.belgium.be/fr/le-train-e-santé-est-en-marche-premier-plan-d’action-déjà-actualisé.
  • [32] Cf. https://www.maisonmedicale.org/Gouvernance-du-plan-e-sante.html.

Poursuivre la lecture

Copyright 2017 Ⓒ ARC Action et Recherche Culturelles - Tous droits réservés