intelligence-artificielle

Quelques définitions…

D’abord et pour éviter toute confusion, rappelons ce qu’est l’éthique, à ne pas confondre avec la morale : l’éthique est une philosophie, voire une science, qui définit justement les principes fondateurs de la morale, à savoir ce qui est bien et ce qui est mal. Pourquoi, lorsque l’on parle d’Intelligence Artificielle, parle-t-on forcément d’éthique ? Tout comme les grandes Révolutions qui ont traversé l’Histoire, l’IA redéfinit d’abord les frontières d’intervention de l’Homme : de la même façon que les opérateurs téléphoniques (standardistes) ont peu à peu été remplacés par des commutateurs téléphoniques électromagnétiques (standards automatiques), l’IA s’est par exemple substituée à l’Homme dans sa relation avec le client avec l’usage des chatbots. Mais là où l’IA se distingue des autres révolutions technologiques, c’est dans sa capacité à imiter le comportement humain d’une part et dans sa capacité à s’approprier une connaissance de la vie privée et l’intimité des personnes d’autre part.

Pour cette raison, l’IA inquiète et fait débat : quel impact l’IA a-t-elle sur l’emploi ? Qu’en est-il de la transparence et de la responsabilité des algorithmes eux-mêmes ? D’où proviennent les données qui nourrissent ces algorithmes et à quelle fin sont-elles utilisées ? Quel degré d’autonomie l’IA laissera-t-elle à l’homme ? Comment reproduire le raisonnement humain sans reproduire sa part de préjugés et d’interprétations ? Dans le cadre de la voiture autonome par exemple, un accident se produit, qui est responsable ? Le conducteur, le constructeur, la personne qui a créé l’algorithme ? Pas si évident…

Pour répondre à ces problématiques complexes, les instances gouvernementales ont donc dressé un certain nombre de principes indispensables pour définir les frontières et le cadre d’application de l’IA. Car si l’IA apporte effectivement des améliorations dans de nombreux secteurs, celle-ci ne peut en aucun cas entraver les droits fondamentaux de l’Homme tels que le droit à la vie privée et à l’intimité dans la collecte et l’usage des données, le droit à l’emploi, etc.

Pour éviter toute dérive contraire au fonctionnement social démocratique, des mesures ont donc été prises : la Commission Européenne a en effet tenté de s’atteler à la rédaction du AI Ethical Guideline ou guide d’éthique pour l’Intelligence Artificielle qui définit six principes éthiques considérés comme fondateurs : la Bienfaisance (faire le bien), la Non-malfaisance (ne pas nuire), l’autonomie des humains, la Justice (c’est-à-dire la non-discrimination de l’IA) et l’explicabilité pour assurer autonomie, consentement éclairé et protection des données. De même, la notion de l’IA éthique “by design” a vu le jour, à savoir la construction de solutions techniques et institutionnelles qui intègrent de la conception à l’usage, des considérations éthiques dans les outils d’IA. Autre exemple de mesure, le Règlement Général sur la Protection des Données (RGPD), entré en vigueur en Europe en Mai 2018, est également un pas vers une IA éthique en protégeant les données utilisateurs : « Plusieurs gouvernements ont ainsi mis en place des lois pour protéger les consommateurs ; le RGPD posant un premier décor législatif uniformisé à l’échelle européenne autour de la notion de propriété de la donnée », 2020, le début d’un big data éthique concret ? Pas si sûr…, Le Journal du Net.

En fait, plutôt que de parler d’Intelligence Artificielle, le terme d’intelligence « augmentée » serait finalement plus approprié : à savoir, des outils qui permettent non pas de remplacer l’intelligence humaine mais plutôt de l’augmenter pour construire un binôme humain/machine dans lequel la machine assiste l’Homme pour qu’il se concentre sur les tâches plus gratifiantes et l’Homme fixe un cadre à la machine, en particulier dans l’utilisation des données. Les machines ont une capacité de stock (que l’on pourrait assimiler à la mémoire) et d’analyse des données (qui repose justement sur cette mémoire) qui dépasse indéniablement celle du cerveau humain. Toutefois, si l’IA imite le comportement humain et dépasse certaines de nos capacités cérébrales, celle-ci n’est pour autant pas en mesure de créer : « c’est nous qui inventons, donc c’est nous qui avons le contrôle », propos de Luc Julia recueillis par l’agence La Netscouade à l’occasion du salon AI PARIS 2019.

Finalement, tout l’enjeu est donc de se rappeler ce qui fonde notre éthique et d’appliquer à cette intelligence « augmentée » les principes que l’Homme a déjà établis par le passé : au même titre que la loi définit un cadre à l’intelligence humaine, il faut définir un cadre d’application pour assurer un usage à bon escient de ce « prolongement » de l’Homme et favoriser la transparence, la confiance, le respect du droit à l’intimité et à la vie privée, et la définition des frontières de responsabilité.

Anouk Radureau, Consultante en Stratégie Marketing Digital & CRM

 

Un sujet à nous soumettre ?
Un projet à partager ?
Envie de rejoindre l’aventure ?