Le Café Politique

Parce que le citoyen doit penser pour être libre !
  • Article

  Ethique de l’Intelligence Artificielle

lundi 26 mars 2018, par Jean-Pierre Lorré

L’Intelligence Artificielle est un sujet qui fait actuellement l’objet d’un engouement important. Entre les délires transhumanistes, les approximations de certaines publications et ceux qui utilisent le sujet pour nous pousser vers encore plus de dérégulation il est temps de faire le point. Ce thème est revenu sur le devant de la scène suite à des résultats fortement médiatisés obtenus notamment dans les domaines des jeux (AlphaGo), de la vision artificielle et de la reconnaissance de la parole.

Notons que dès 1950, tout en posant les fondations sur lesquelles repose l’informatique moderne, Alan Turing proposait déjà un protocole de test consistant à vérifier si un programme est capable de convaincre un être humain qu’il converse avec un de ses semblables et non avec une machine.

Le renouveau que connaît aujourd’hui l’Intelligence Artificielle prend racine en 2012 suite à la publication d’une série d’articles qui marquent l’envolée de l’approche dite de “Deep Learning” (apprentissage profond) [1]. Cette technique de réseaux de neurones, alliée aux puissances de calculs et aux masses de données maintenant disponibles, permet d’envisager de nouveaux type d’applications.

Le « Deep Learning » est un sous domaine du « Machine Learning » (Apprentissage Automatique), lui-même inclus dans le champ de l’Intelligence Artificielle. Il s’appui sur une technique issue des années 80, les Réseaux de Neurones Profonds, qui propose des outils de classification basés sur des modèles s’inspirant de l’organisation du cerveau où les neurones sont reliés par des synapses. Les neurones composent des couches que l’on va superposer afin de les doter de capacités d’apprentissage. Le nombre de couches peut être important, d’où le qualificatif de “profond (deep)”. L’approche de Deep Learning connaît un grand succès pour plusieurs raisons. Elle propose des solutions performantes pour plusieurs classes de problèmes (en particulier la reconnaissance d’images et la reconnaissance de la parole) mais également parce qu’elle simplifie les tâches associées à l’élaboration des modèles nécessaires pour la résolution de problèmes.

La différence fondamentale entre l’Intelligence Artificielle “classique”, habituellement qualifiée de “symbolique”, et l’approche récente dite « Machine Learning », est que la première s’appuie sur des règles traitées par un moteur d’inférence et issues de connaissances expertes. La seconde, en revanche, se nourrit d’un corpus de données et en déduit automatiquement des règles qui sont ensuite utilisées par l’application intelligente.

La généralisation du « deep learning » est cependant soumise à une contrainte majeure : la disponibilité d’une grande masse de données pour alimenter le processus d’apprentissage automatique. C’est la raison pour laquelle les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et leurs équivalents chinois BATX (Baidu, Alibaba, Tencent, Xiaomi) qui ont accès à nos données personnelles via notamment l’usage généralisé des smartphones en font un commerce très lucratif en les revendant à des acteurs proposant des services à valeurs ajoutés exploitants ces données (publicités ciblés, recommandations diverses, etc.).

Les enjeux de ces sujets sont alors multiples :

• Enjeux de transparence des algorithmes : que font exactement les applications d’IA des données qui leur sont confiées, comment être sûr de l’innocuité et de la validité des traitements et de la justesse des résultats ?

• Enjeux de respect des données privées : comment éviter que nos données personnelles échappent à notre contrôle et soient revendus pour des usages mercantiles ?

Divers mouvements apparaissent autour de la notion « d’intelligence artificielle éthique ». On notera en particulier celui autour de Open IA [2] dont l’un des fondateurs est Elon Musk qui n’est certainement pas dénué d’intentions cachées (comment faire confiance à un homme dont la mégalomanie va jusque à envoyer une automobile dans l’espace au bout d’une grosse fusée ?). Idem pour le « Partnership on Artificial Intelligence to Benefit People and Society » initié par Google, Facebook, IBM, Microsoft et Amazon (on est jamais mieux servi que par soi-même), ce partenariat a entre autre pour objectif de communiquer auprès du grand public afin de « l’éduquer et de l’écouter » sur ces questions, ce qui en dit long. Une initiative plus sérieuse est celle articulée autour des 23 principes dis « d’Asilomar » [3] [4] qui se situe dans la mouvance des fameuses trois lois de la robotique d’Isaac Asimov, à l’initiative de scientifiques tels que Stephen Hawking. Elle définit un ensemble de règles éthiques que les signataires s’engagent à respecter, elle n’a aucune portée juridique et il faudra donc voir si ces fameux principes sont effectivement respectés.

L’éthique dans le domaine de la gestion des données privés donnent lieu à des interprétations diverses. Une initiative très médiatisée ces temps derniers milite pour une monétarisation de nos données privées, l’idée étant de demander aux GAFAM qui utilisent nos données de nous rétribuer en échange. Cette approche poussée notamment par le très libéral Think Tank « Génération Libre » et Mme Laurence Parisot [5] a pour conséquence de transformer chaque internaute en entrepreneur de lui-même, commercialisant ses données personnelles, c’est-à-dire une partie de lui-même. Si on considère nos données privées comme faisant partie de nous-même un tel raisonnement libertarien autorise par extension la vente d’organe, ce qui laisse rêveur. Une autre approche [6], diamétralement opposée, part du principe que les données personnelles n’ont de valeur que si elles se trouvent agrégés et propose donc de les socialiser afin de mettre cette ressource au service de la collectivité et contribuer, entre autres, à l’amélioration de la santé, des transports, de l’éducation et réduire les dépenses d’énergie [7].

La démarche des logiciels libre quant à elle vise un modèle de développement des logiciels mettant en avant les préoccupations d’ouverture et de transparence. Les libertés d’utiliser, de copier, d’étudier et de modifier les logiciels ainsi que de redistribuer les versions modifiées constituent l’essence même du logiciel libre. Les deux dernières libertés ne peuvent s’appliquer que si l’on a accès au code source. Développer les algorithmes d’IA en suivant ces principes est une garantie de pouvoir les examiner en détail est ainsi de s’assurer de la conformité avec les propriétés de transparence attendus.

De nombreuses études attestent de l’impact des technologies issues de l’Intelligence Artificielle et plus généralement de la digitalisation de la société sur l’emploi. Elles indiquent que de nombreux métiers seront touchés notamment dans le domaine des services. À l’instar de la révolution industrielle qui a profondément modifiée les modes de vie et de travail, nous vivons une révolution numérique qui transforme notre société. Certains proposent d’arrêter le temps, d’autres de payer les citoyens pour qu’ils restent chez eux et se taisent, il me semble que la question est mal posée. En effet elle est à articuler avec une réflexion concernant la société dans laquelle nous désirons vivre. Pour ma part j’appelle à repenser les fondements de notre société économiquement libéral qui actuellement exacerbe la concurrence à tous les niveaux et utilise l’intelligence artificielle comme instrument de la sacro-sainte compétitivité. Ce qui doit fonder la société est la mise en commun des moyens pour le progrès social de la communauté et c’est à cette fin que doivent être mise en œuvre les technologies de l’IA. Ce ne sont après tout que des outils dont l’usage doit être réservé au bien commun, et cela est un choix politique que seul nous tous pouvons prendre.

Jean-Pierre Lorré

Chercheur en IA

Références :

A propos de l’Intelligence Artificielle et d’apprentissage profond :

• Une bonne introduction sur le « deep learning » : Deep Learning with Python, François Chollet, Manning

• La référence sur le Deep Learning : Deep Learning, Ian Goodfellow, Yoshua Bengio and Aaron Courville, The MIT Press

• Sur les limites des approches « deep learning » : Deep Learning : A Critical Appraisal, Gary Marcus, New-York University.

Essais sur l’impact social de l’Intelligence Artificielle et des « Big Data » :

• L’homme nu, la dictature invisible du numérique, Marc Dugain, Christophe Labbé, Robert Laffont, 2016

• Un très instructif article sur la fausse bonne idée de monétiser ses données personnelles : http://maisouvaleweb.fr/revendre-ses-donnees-personnelles-la-fausse-bonne-idee/ Sur « l’économie du partage » :

• Ce qui est à toi est à moi, contre Airbnb, Uber et autres avatars de l’ « économie du partage », Tom Slee (titre original « What’s yours Is Mine : Against the Sharing Economy »), Lux Editeur, 2016

Notes :

[1] Parmi ces articles on notera notamment celui de Krizhevsky and all “ImageNet classification with Deep Convolutional Neural Networks”

[2] https://openai.com/

[3] https://futureoflife.org/ai-principles/

[4] https://www.numerama.com/tech/228857-les-23-principes-dasilomar-veulent-encadrer-le-developpement-de-lintelligence-artificielle.html

[5] http://www.lemonde.fr/idees/article/2018/02/05/nos-donnees-nous-appartiennent-monetisons-les_5251774_3232.html

[6] « Données personnelles, une affaire politique », Le Monde Diplomatique, septembre 2016

[7] « Socialisme numérique », Le Monde Diplomatique, mars 2018