Centre Européen de recherche sur le Risque, le Droit des Accidents Collectifs et des Catastrophes (UR n°3992)

Non classé

SOMMES-NOUS « ROBOT MAIS PAS TROP[1] », « ROBOTS APRÈS TOUT [2]» OU ROBOT, PAS DU TOUT ? K. Favro

Karine FAVRO

Professeure de droit public à l’Université Haute-Alsace

Membre du CERDACC (UR 3992)

Les chatbots, nouvel objet de réflexion ? L’arrivée « virale » de ChatGPT dans les chaumières relance une nouvelle fois la question de l’interaction humain-machine et les bénéfices ou les risques qui en résultent. Ainsi depuis quelques semaines, les aventures de ChatGPT, relayées par les réseaux sociaux prennent curieusement la tournure d’une nouvelle saga des Martine. En effet, ChatGPT liquide des régimes matrimoniaux, devient fiscaliste, nous délivre des conseils, gère les situations de crise, est auteur de théories complotistes, de deepfake, …Bref, ChatGPT nous accompagne dans la vie de tous les jours au gré de nos interactions naturelles avec le monde extérieur, et c’est probablement ce à quoi il aspire en réalité. Ce robot est disponible en ligne gratuitement, mis sur le marché par la société américaine OpenIA. Il répond aux questions des utilisateurs, dialogue avec eux en exprimant des nuances de langage et en suggérant des réponses, peut créer des chansons, des lettres, des articles de presse, des virus informatiques, du hameçonage par le biais d’une interface trompeuse, peut tricher, peut plagier…. Il ne connait ni l’intégrité, ni l’initiative mais apprend de nous et tout ce qui s’y rapporte. Tay, le chatbot développé par Microsoft s’est rendu tristement célèbre pour ses discours racistes qui ont pris place sur Tweeter  (A LIRE ICI ).

En effet, appartenant à la catégorie des transformeurs dit GPT, ces machines constituent une architecture de réseau de neurones permettant d’effectuer des tâches complexes telles que la génération automatique de texte ou d’images avec des coûts d’entraînement réduits[3]. Par exemple, GPT-3 peut, à partir d’un titre, écrire un paragraphe développant l’argument contenu dans le titre. Il peut également être utilisé pour faire de l’écriture créative ; il suffit de le solliciter avec une courte phrase. Ces systèmes jouent déjà un rôle non négligeable dans le secteur de la presse écrite comme en atteste le fait que plusieurs journaux dont le New York Times, The Associated Press, Reuters, The Washington Post et Yahoo! Sports, utilisent déjà des algorithmes d’apprentissage automatique pour générer du contenu. Ainsi GPT-3 est un rédacteur d’opinion pour The Guardian et The Associated Press, par exemple. Il peut désormais produire 30 000 articles d’actualité locale, par mois, grâce à l’IA. Cependant, ces robots peuvent également constituer des « fabriques » de désinformation si les questions posées sont orientées ou si les algorithmes les y autorisent. S’y ajoutent des possibilités d’erreur d’interprétation, au-delà, les réponses générées seront à 80% fausses puisque le robot ne peut percevoir toutes les intentions et notamment ne pourrait déceler une intention complotiste derrière la formulation d’une question. Par ailleurs, ces systèmes sont capables de manipuler les foules, émiettant les groupes sociaux, configurant les informations de manière à ce qu’elles bénéficient à un groupe ou des individus à l’exclusion des autres. Les systèmes algorithmiques, et notamment ceux des GPT, favorisent la satisfaction des besoins individuels par un profilage performant, ce qui a pour effet de déconstruire le groupe. Les effets en sont immédiats : la propagation de contenus illicites marqués par la volonté d’induire en erreur l’utilisateur. Ils peuvent avoir un impact mineur sur l’individu notamment lorsqu’il s’agit de le convaincre de la réalité d’un fait, d’un débat de société, d’une intention de vote, mais cet impact peut être bien plus significatif à l’échelle du groupe. Or, l’individu n’aura pas la motivation d’agir, car il a confiance dans un système qui lui renvoie son propre écho par la production des biais de confirmation, mais le groupe sera touché distinctement selon la performance du système algorithmique, et donc, n’agira pas alors que le processus démocratique est en danger.

La qualification juridique. Pour l’heure, le droit les qualifie d’assistant virtuel. La Commission européenne s’est intéressée à ces assistants dans le cadre de son enquête sectorielle sur l’internet des objets grand public (Commission européenne, Enquête préc.), mais s’interroge essentiellement sur la catégorie des assistants vocaux première génération, type Siri, Alexa, Google assistant. A ce titre, la définition proposée est la suivante : « un logiciel à commande vocale qui peut traiter des commandes vocales et renvoyer des informations pertinentes ou exécuter certaines fonctions à la demande des utilisateurs ». Ces assistants virtuels sont désormais saisis par le nouveau règlement européen relatifs aux marchés numériques qui devrait fixer des obligations à leurs concepteurs de nature à ouvrir les marchés et les rendre contestables dès lors qu’ils dépendent de l’écosystème d’acteurs structurants comme le sont les GAFAM (Règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques)). Dans la mesure où Microsoft investit lourdement dans le développement de ChatGPT, son entrée dans l’écosystème sera fortement questionnée ces prochaines années. Cette qualification d’assistant virtuel, avec l’arrivée sur le marché des chatbots deuxième génération, devra être complétée pour prendre en considération la dimension conversationnelle, devenant prioritaire car elle renouvelle la réflexion sur les limites éthiques des systèmes algorithmiques, et le traitement de certaines catégories de données. C’est la raison pour laquelle, il est préférable désormais de les identifier comme des agents conversationnels. Pour autant, juridiquement leur régime juridique reste inchangé. Ils agissent à la fois comme une plateforme d’intermédiation pour les applications vocales (qui permettent de formuler des réponses) et comme interface utilisateur (terminal). Cette interface se développe désormais rapidement en raison de la facilité avec laquelle l’utilisateur peut formuler une requête avec la voix pour accéder au web, utiliser et «contrôler» des appareils intelligents. L’interaction vocale est utile dans certains environnements contraints comme la voiture ou le domicile, en complément d’une autre activité, voire elle participe au confort de vie des utilisateurs. Les développements techniques permettent d’envisager à l’avenir le déploiement de chatbots avec des interfaces humain-machine reposant sur une interaction plus naturelle à travers la parole qui permettra d’adapter encore plus finement les réponses de l’agent conversationnel à la requête de l’utilisateur en raison des milliards de contenus scrollés sur internet et dans les bases de données. Simulant une conversation humaine, le chatbot sera en capacité d’identifier les émotions ressenties par son utilisateur et de simuler en retour des émotions – qui demeurent factices – ce, afin de générer une interaction toujours plus poussée et source d’engagement en jouant sur un phénomène d’empathie(Sur ce point, v. notamment Comité national d’éthique du numérique (CNPEN), Avis n°3 Agents conversationnels : enjeux d’éthique, novembre 2021). Ce phénomène pourrait demain être encore amplifié si ces chatbot se déploient dans les univers virtuels ou de réalité augmentée, autrement dit les metavers, comme semblent l’annoncer certains projets actuels ( V. par ex. le projet Builter Bot de Meta).

Système algorithmique. Cette forme d’interaction relevant d’un système algorithmique, reçoit des données liées à l’humain ou la machine pour en déduire une manière d’atteindre une série d’objectifs en utilisant l’apprentissage, le raisonnement ou la modélisation dans la perspective de générer des résultats sous forme d’actions, de prédictions, de recommandations ou de décisions influençant l’environnement réel ou virtuel avec lequel ils interagissent. Les algorithmes constituent « la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. (….) Dans le monde de plus en plus numérique dans lequel nous vivons, les algorithmes mathématiques permettent de combiner les informations les plus diverses pour produire une grande variété de résultats. Pour qu’un algorithme puisse être mis en œuvre par un ordinateur, il faut qu’il soit exprimé dans un langage informatique, sous la forme d’un logiciel (souvent aussi appelé « application »). Un logiciel combine en général de nombreux algorithmes : pour la saisie des données, le calcul du résultat, leur affichage, la communication avec d’autres logiciels, etc. Certains algorithmes ont été conçus de sorte que leur comportement évolue dans le temps, en fonction des données qui leur ont été fournies. Ces algorithmes « auto-apprenants » relèvent du domaine de recherche des systèmes experts et de l’« intelligence artificielle ». Ils sont utilisés dans un nombre croissant de domaines, allant de la prédiction du trafic routier à l’analyse d’images médicales » (Définition de l’algorithme délivrée par la CNIL) à l’utilisation des réseaux sociaux, des assistants virtuels, etc. Les dérives sont patentes et sont intrinsèques à l’apprentissage autonome.

En effet, à l’origine les algorithmes se contentaient de proposer une aide à la décision laissant l’humain décider dans le cadre d’un « apprentissage automatique », ce qui désigne la technologie permettant à un système informatique d’exécuter avec intelligence des tâches spécifiques en apprenant à partir d’exemples, de données et de l’expérience, sans intervention humaine directe. Ces avancées technologiques et la production de données ont permis la mise au point de machines qui dépassent aujourd’hui la compétence des humains en temps réel sur des tâches spécifiques (comme le traitement des langues, l’analyse des données, la traduction ou la reconnaissance des images, des sons). Les utilisateurs interagissent désormais régulièrement avec des systèmes d’apprentissage automatique dans le cadre de services numériques (moteurs de recherche, systèmes de navigation ou de recommandation de produits, etc.) répondant de manière précise, efficace et en temps réel aux demandes des utilisateurs, tout en apprenant de leurs erreurs pour s’améliorer en continu. Les progrès des techniques d’apprentissage automatique ont entraîné le développement et l’utilisation croissante de systèmes non seulement automatisés mais également autonomes. Ils impliquent l’existence « d’agents informatiques » (Conseil de l’Europe, Responsabilité et IA, DGI (2019)05, rapporteur K. Yeung, p.20) qui décident de leur propre comportement sans intervention directe d’opérateurs et en l’absence de contrôle humain. Ils adaptent leur comportement en fonction des retours sur leur exécution des tâches grâce aux données de performance du système (requêtes de l’utilisateur qui aboutissent pu pas, pourquoi ?) et données d’usage (comment les utilisateurs se servent de l’interface ? pour quels services ? comment opèrent-ils leurs choix ?). Leurs « décisions » et leurs actions sont envisagées d’emblée comme « non entièrement déterminées » et par conséquent, non entièrement prévisibles, ce qui signifie que l’autonomie sera fonction du niveau d’intervention humaine nécessaire au fonctionnement du système, lequel peut se distinguer en raison de sa capacité d’apprentissage (il se fixe des objectifs propres) et d’adaptation aux conditions locales (données, capteurs sur la voie publique, etc…). Les concepteurs du système définissent les conditions optimales de fonctionnement mais lorsque le système est déployé, son fonctionnement évolue en fonction de l’environnement, puisqu’il est conçu pour prendre des décisions indépendantes en optant pour la meilleure alternative, et sans intervention humaine. Ces systèmes tirent en continu des enseignements de leur environnement, en procédant par itération, rendant ainsi les actions et décisions opaques et imprévisibles dès lors qu’elles sont la conjonction d’un système mis au point par l’homme mais totalement approprié par la machine et sans supervision humaine. C’est ce qui correspond à l’idée de la boite noire accentuée par les propriétés du système, mises en perspective de manière très claire dans le cadre d’une étude du Conseil de l’Europe « sur les incidences des technologies numériques avancées (dont l’intelligence artificielle) sur la notion de responsabilité, sous l’angle des droits humains » (Conseil de l’Europe, Responsabilité et IA, DGI (2019)05, rapporteur K. Yeung, p.18 et s.).

« Décision » du système algorithmique. Ce cadre d’action « augmenté » par l’utilisation de systèmes algorithmiques révèle une intrusion toujours plus grande dans le champ des droits de la personnalité (liberté d’expression, droit à la vie privée et protection des données, répression des discriminations) en raison du lien matérialisé par un ensemble de traces de connexion et de géolocalisation, préalable à toute relation entre les personnes publiques ou privées et les utilisateurs. Les algorithmes et systèmes algorithmiques utilisés pour mettre à disposition des contenus et mesurer la satisfaction des utilisateurs permettent notamment d’optimiser le fonctionnement des services par des mécanismes de recommandation. Ces mécanismes de recommandation sont à privilégier si l’on souhaite que les systèmes algorithmiques assistent l’humain dans la prise de décision, car ils préservent le libre arbitre. Au lieu de la décision ou de fonctions automatiques prédéfinis, le système fait des suggestions par la recommandation laissant ainsi la décision finale à l’utilisateur. Reste que selon la performance du système, la recommandation peut avoir pour effet de restreindre la « découvrabilité » [4],  l’ « explicabilité », voire la « jouabilité » des contenus fournis aux utilisateurs, en mettant en avant tel ou tel type de contenu ou de service, au détriment des autres. Ces mécanismes, lorsqu’ils sont performants, ont pour objectif premier de réduire la capacité de l’être humain à décider pour lui-même et dans l’intérêt général par la mise à disposition d’éléments qui vont contribuer fortement à la prise de décision. Il peut être difficile d’admettre définitivement qu’un dispositif technique puisse prendre une décision et imposer des choix opaques pour le décideur ou ses partenaires, dépourvus de sens politique, de bon sens même, si ce n’est la satisfaction de besoins individuels ou collectifs mais économiques. En réalité, le système algorithmique ne prend pas de décision, elles sont dictées en amont, comme si elles étaient prédéterminées par la situation, un évènement, et dont la réponse en traduit la mise en données. La « fabrique » de la décision est alors complexe. Pour la démystifier, il est bon de rappeler que ces systèmes relèvent seulement des mathématiques, et des outils mis au point par les humains. Les résultats obtenus ne sont que la traduction de notre rapport à la science (CNCDH, Avis, A-2022-6, Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux, 7 avril 2022, p.4). Il ne s’agit pas d’une fatalité dont il faudrait s’accommoder sans réflexion préalable.

La voix de synthèse. Par ailleurs, la formulation de cette réponse par une voix de synthèse représente un coût non négligeable en raison de développements complexes, et s’accompagne de possibilités d’erreurs d’interprétation bien plus importantes qu’une requête écrite. Tous les modèles de transformeurs, dont GPT, ont été formés comme des modèles de langage sur de grandes quantités de texte brut de manière auto-supervisée. L’apprentissage auto-supervisé est un type d’entraînement dans lequel l’objectif est automatiquement calculé à partir des données d’entrées du modèle sans intervention humaine. Ce type de modèle développe une compréhension statistique de la langue sur laquelle il a été formé, ce qui signifie qu’il peut être formé à tout type de langage et pas seulement le langage naturel avec lequel il est en interaction avec l’humain. Ils ont la capacité de prédire le mot suivant dans une phrase après avoir lu les mots précédents, mais statistiquement, ils peuvent ne pas comprendre le sens des mots et des phrases (D. Jurafsky, J. H. Martin, «Speech and Language Processing», Prentice Hall, 2021). Quant aux moteurs de réponse, ils interprètent la question, évaluent les options disponibles et fournissent la meilleure réponse possible. Souvent il s’agit d’une réponse unique, jugée la plus pertinente parmi les réponses possibles repérées par l’algorithme. L’unicité de la réponse dépend par ailleurs de l’interface utilisateur qui peut être dépourvue d’écran, privilégiant la voix. L’expression de la réponse comporte alors deux grands enjeux. Tout d’abord, une fois que le système a trouvé la réponse la plus pertinente à fournir à l’utilisateur, il formule cette réponse en langage naturel, grâce à des algorithmes de génération de langage naturel. Ce texte est ensuite traduit en un fichier audio à l’aide d’algorithmes de synthèse vocale (text-to-speech). Il s’agit ensuite de générer de la voix synthétique, qui fait appel à différents algorithmes de synthèse vocale. La réponse délivrée par le GPT n’est pas encore adaptée à la gestion de situations de crise, par exemple parce qu’il ne perçoit pas l’urgence dans la voix et qu’il ne sait pas encore adapter le vocabulaire de la réponse. Ce décalage peut se corriger en injectant les bonnes données pour contextualiser l’échange. Cependant, les biais n’auront pas disparu et seront simplement moins détectables du fait de la fluidité de l’interaction. Il s’agit d’une forme de mimétisme algorithmique, à l’image de ChatGPT et tous ceux qui vont lui succéder, pour l’heure encore imparfaite.

Opportunité et risque ? En réalité, les risques avérés de cette forme d’interaction humain-machine dépassent largement les seules implications juridiques qui pourraient en résulter car cela questionne le modèle de société que l’on souhaite déployer pour les années à venir avec en toile de fond des enjeux éthiques importants. Outre les questions de sécurité, de malveillance qui occupent la doctrine dans le cadre du fonctionnement des objets connectés, les principales questions éthiques liées à des choix de société demeurent. Typiquement, il est facile par une programmation des algorithmes de donner la priorité à des groupes de personnes, en raison de leurs origines, opinions, d’un rapport de force, comme il est tout aussi simple de développer l’empathie des machines de manière à ce qu’elles se transforment en clone de l’utilisateur, ou à l’inverse attisent la haine. Le fonctionnement de ces systèmes est découplé de toute forme de valeur morale, éthique, ou juridique, pouvant caractériser tout à la fois des phénomènes de désinformation, l’honnêteté, le pluralisme, la pensée unique, etc. Alors quels choix, pour quelle société ?

Cependant, d’aucuns voient dans ces systèmes algorithmiques la seule capacité des machines à accomplir des tâches complexes à la place des humains mais sans en avoir pour l’instant la capacité de compréhension (perception de la réalité, raisonnement critique et organisation de la mémoire, selon Marvin Lee Minsky concepteur de l’intelligence artificielle), de découverte et d’initiative. En toute hypothèse, cette réalité décrit un modèle de société au sein duquel les êtres humains s’approprient cette nouvelle forme de langage avec la machine et la développe, l’interaction en question suscite à la fois crainte et convoitise de la part des humains, essayant de se convaincre qu’ils sont irremplaçables et plus érudits, dominant la relation parce qu’ils en sont à l’origine. La crainte de ne plus être en mesure de décider quand l’urgence ou l’incertitude brouille les connaissances et compétences, est patente et sans conteste effrayante. C’est pourquoi la tentation était grande de rechercher dans un premier temps la possibilité d’augmenter les capacités cognitives des décideurs, à l’aide d’outils appropriés (bases de données spécifiques, cartographie numérique très précise, capteurs de données sur la voie publique pour identifier les signaux faibles et gérer la mobilité, « vêtements augmentés » pour les militaires et les pompiers[5]) et pour les protéger de phénomènes de plus en plus complexes, lesquels nécessitent un socle de connaissances a priori particulièrement bien restitués par la machine, capable d’aller rechercher les bonnes données, d’opérer les croisements nécessaires en temps réel, de réaliser des statistiques fines, d’amorcer une prédiction sur les réponses à apporter. D’emblée toute forme de prédiction remet en question le déroulement de notre futur car il conduit l’humain à prendre une décision en fonction d’une modélisation (représentation de la réalité) qui ne correspond pas toujours à la réalité puisqu’il s’agit, à partir de données collectées dans le passé, de les analyser dans le présent, afin de prendre une décision pour le futur. Selon la qualité et la quantité de données collectées, le résultat obtenu pourra biaiser la réalité et ainsi modifier notre futur sans que nous soyons en capacité d’y remédier, a fortiori lorsqu’il y a urgence à agir.  L’objectif est alors de produire des quantités de données afin d’être en capacité de les traiter et de se libérer des biais les plus grossiers. Mais dans le même temps – existence d’un cercle virtueux – les algorithmes sont de plus en plus performants car ils se nourrissent massivement de données, produites à grande échelle. Difficile pour l’utilisateur de comprendre les réalités de la donnée, d’autant qu’elle est définie de la façon la plus englobante qui soit comme « toute représentation numérique d’actes, de faits ou d’informations et toute compilation de ces actes, faits ou informations, notamment sous la forme d’enregistrements sonores, visuels ou audiovisuels » (Article 2, Data Act, 23 février 2022, COM(2022) 68 final  2022/0047 (COD) ; art. 2 DMA, 3 mai 2022, 2020/0374(COD).  Cette définition non limitante illustre peu, à quel point cette notion est protéiforme et colonisatrice de l’humain. Quelles qu’elles soient (à caractère personnel ou non personnel avec des enjeux techniques comme les métadonnées qui sont les données sur les données), elles ne sont jamais insignifiantes dans leur portée, affinant la connaissance du marché et des individus qui y sont ciblés au travers d’activités existantes ou à venir.

La quantité de données produites quotidiennement ne cesse d’augmenter car toutes les activités humaines « sont mises en données », même celles qui pourraient relever de l’ordre public et de la souveraineté des États. En cela, la révolution numérique est bien plus marquante que la révolution industrielle. Ces données nourrissent (entrainent et valident) des algorithmes dont les applications s’étendent à toutes les activités humaines. Autrement dit, chaque domaine qui produit des données permet aux algorithmes de les utiliser et de déployer l’interaction avec l’humain. Par ailleurs, les algorithmes ne font aucune distinction entre la nature des activités humaines, si des barrières ne sont pas correctement posées, pour assurer la sécurité ou protéger certaines catégories de personnes et de données, l’objectif résidant in fine dans le partage pour déployer l’interaction humain-machine. La prédiction devient plus précise, l’homme apprenant de la machine et vice versa. ChatGPT illustre cet apprentissage permanent car il apprend de ses locuteurs, enrichit son vocabulaire et raisonnement au gré des questions posées, et l’adapte à la réponse attendue.  D’ici quelques mois, il impressionnera par la pertinence de ses réponses sans se débarrasser pour autant de tous ses biais (techniques et ceux liés à la mauvaise perception du risque) que le juriste qualifiera d’erreurs, de contenus illicites, mais dont il éprouvera des difficultés à se saisir en raison de sa compréhension du système algorithmique, des acteurs qu’il devra saisir, de la pertinence et de l’intégrité des données, des briques logicielles qui fondent la réponse et la « décision », des interfaces utilisées et des liens d’interdépendance entre l’humain et la machine qui caractérisent le système.         

Implications juridiques des systèmes algorithmiques. D’un côté les algorithmes aident à la décision et augmentent les capacités humaines par le traitement de données, de l’autre les systèmes algorithmiques « décident » à la place des humains en raison de la production massive de données et du traitement qui en résulte en temps réel. Dès lors les implications juridiques vont dépendre des algorithmes et machines utilisés, qui auront pour conséquence d’aider à la décision ou d’une certaine manière de « décider » à la place de l’humain. Dans la mesure où ces systèmes sont polyvalents, ils peuvent être utilisés par des acteurs bienveillants mais aussi malveillants, pouvant transformer la finalité de toute information dont on recherchera alors les possibles responsabilités dans l’objectif de trouver un équilibre dans cette relation humain-machine.

Changement de paradigme. Ce raisonnement en quatre temps défie la logique déterministe de l’humain qui de manière générale prévoit ce qu’il comprend en application du principe de prévention, adaptant ainsi la règle de droit à ce rapport aux causes et conséquences. L’apprentissage des algorithmes dans le cadre des systèmes algorithmiques, met en perspective une logique probabiliste permettant de prévoir sans comprendre, transformant ainsi le raisonnement fondé sur la causalité pour la prise de décision. Cette dernière provient désormais d’une corrélation de données et d’une variable causale qui est significative, mais qui peut également relever de la simple coïncidence, à partir du moment où le nombre de données corrélées est important. En réalité, les megadonnées (ou big data) créent des phénomènes complexes quant à la vélocité, la variété et la prolifération de données poussant à l’abandon d’une forme de rationalité fondée sur la causalité, au profit de corrélations observées purement statistiques et itératives. Modifiant le raisonnement du juriste en ce qu’il doit appréhender l’incertitude, il lui appartient de changer d’approche en réfléchissant plus en amont sur ces aspects techniques relevant de l’ingénierie et de l’évolution des modèles déliés de tout contrôle humain (L. Viaut « Responsabilité et intelligence artificielle », Actu-juridique, 31 mai 2021). C’est probablement les fondements de la responsabilité qui sont ici questionnés. L’objet juridique dont il convient de se saisir s’accommode plus naturellement d’une approche par la régulation.


[1] E. Simard, Syros, 28 janvier 2010.

[2] Album de Philippe Katerine, paru le 10 octobre 2005.

[3] Précisions par ailleurs que les modèles basés sur les transformateurs ont commencé à avoir un impact significatif en dehors du langage naturel. Par exemple, en vision artificielle, le transformeur de vision atteint une précision impressionnante dans les tâches de classification d’images en traitant de petits morceaux d’une image comme des éléments d’une séquence, tout comme une phrase composée par des mots.

[4] « La découvrabilité d’un contenu dans l’environnement numérique se réfère à sa disponibilité en ligne et sa capacité à être repéré parmi un vaste ensemble d’autres contenus, notamment une personne qui n’en faisait pas précisément la recherche », P. De Cuetos, M. Rocheleau, Rapport de la Mission franco-québécoise sur la découvrabilité en ligne des contenus culturels francophones. Ministère de la Culture et des Communications du Québec et Ministère de la Culture en France, 2020. « La découvrabilité d’un contenu dépend de multiples facteurs tels que la qualité des métadonnées associées aux contenus, les stratégie marketing mises en œuvre sur les réseaux sociaux, la connaissance des usages par les professionnels ou les politiques publiques de promotion de ce type de contenus (…) L’orientation des internautes vers certains types de contenus peut se faire vers certains types de contenus au nom de l’intérêt général. Cela se heurte, dans l’univers délinéarisé, à des difficultés inédites d’application et ouvre de nouvelles interrogations en matière de politique culturelle par exemple.

[5] Les réflexions éthiques sur le pompier augmenté s’inscrivent dans le cadre des récents débats qui ont précédé et succédé l’avis rendu le 18 septembre 2020 par le comité d’éthique de la défense (créé en 2019 pour l’occasion – 20200918_Comité d’éthique de la défense_Avis portant sur le soldat augmenté.pdf) sur le soldat augmenté. La « définition de l’augmentation est centrée sur l’homme et ses capacités intrinsèques », valable à la fois pour le soldat mais également pour le sapeur-pompier avec des enjeux similaires. A l’inverse, les drones, la caméras thermiques et les robots, sont analysés comme des technologies externes qui ne participent pas de la réflexion sur le pompier augmenté mais qui s’inscrivent en complément dans un cadre purement opérationnel (G. Boisboissel (de), J.-M. Le Masson, « Le soldat augmenté, définitions », Revue de la défense nationale, A LIRE ICI ).