Le Café Politique

Parce que le citoyen doit penser pour être libre !
  • Article

  IA : fantasmes, réalités et enjeux

jeudi 22 mars 2018, par Gérard Verfaillie

Il y a encore quelques années, autour de 1990-2000, l’Intelligence Artificielle (IA) était considérée par bon nombre de scientifiques et de décideurs comme un domaine scientifique sans avenir, n’ayant pas tenu ses promesses initiales des années 1950-60 en termes d’applications efficaces et utiles. C’était l’époque où personnellement je n’osais plus dire à mes enfants que je travaillais au développement de systèmes d’IA et où je noyais le poisson en disant que je travaillais en Informatique et Automatique.

Puis, au cours des années 2010, on a assisté à l’explosion des techniques d’apprentissage automatique à base de réseaux de neurones (Deep Learning, Apprentissage Profond) capables par exemple de reconnaître des objets de tel ou tel type dans de grandes banques de d’images, avec une vitesse et une fiabilité bien supérieure à celles d’experts humains. Ces techniques, développées dans les laboratoires au cours des années 1990, ont pu vingt ans plus tard être utilisées à grande échelle grâce à l’augmentation de la puissance de calcul des ordinateurs et à la disponibilité de grandes masses de données indispensables à l’apprentissage.

L’IA fantasmée

A partir de ce moment, on a assisté à un déferlement médiatique autour de l’IA et de la Robotique annonçant au choix le paradis ou l’apocalypse pour les prochaines années ou décennies :

• développement exponentiel des capacités des systèmes d’IA s’appuyant sur la dite "loi de Moore" qui résulte de l’observation d’un doublement tous les ans de la complexité des processeurs ;

• dépassement à court ou moyen terme des humains par ces super-intelligences artificielles dans la lignée du calculateur HAL 9000 qui, dans le film "2001, Odyssée de l’espace" de Stanley Kubrick, prend le contrôle d’un vaisseau spatial en route vers Jupiter ;

• espoirs suscités au sein des courants dits "transhumanistes" par les possibilités d’humains augmentés par des implants numériques surpuissants ;

• développement de systèmes de contrôle de l’humanité à la Big Brother anticipés par Georges Orwell dans son toujours actuel livre "1984" ...

Ces annonces sont pour la plupart alimentées par des chercheurs en mal de notoriété et de financements ou par des sociétés privées en mal de publicité et de marchés. Elles sont entretenues par le terme prétentieux d’"Intelligence Artificielle" qui a été choisi en 1956 par John McCarthy pour désigner le nouveau domaine scientifique qu’il comptait développer. Elles sont aussi entretenues par des dénominations telles que "Réseau de Neurones" qui font croire à une simulation informatique du cerveau humain alors que les neurones artificiels n’ont rien à voir avec les neurones naturels et que les réseaux de neurones artificiels ne sont que la mise en réseau de quelques centaines ou milliers de fonctions mathématiques simples, là où notre cerveau compte une centaine de milliards de neurones connectés chacun à environ 10000 autres. Ceci dit, cette agitation médiatique est le reflet d’une branche réelle, bien que minoritaire, de la recherche en IA dont le but à long terme serait le développement d’une intelligence artificielle générale apte à concurrencer, voir à surpasser l’intelligence humaine.

L’IA réelle

Heureusement ou malheureusement, la réalité de la recherche en IA et de ses applications est bien loin de ces envolées médiatiques, bien moins spectaculaire et bien moins vendable. L’IA est en fait un domaine de recherche issu de la communauté Informatique qui vise à concevoir et à expérimenter des algorithmes, des engins et des systèmes capables de réaliser des calculs et des raisonnements de haut niveau dont on pensait souvent les humains seuls capables : reconnaissance de la parole, analyse de textes ou d’images, analyse de situations complexes, prise de décisions, interaction avec des humains ou d’autres machines, apprentissage à partir de données, ... Ces recherches ont permis d’obtenir des succès spectaculaires comme les victoires de programmes informatiques contre des champions d’échecs ou de Go. Les systèmes développés surpassent dans beaucoup de domaines les capacités des meilleurs experts humains. En plus de leur efficacité, ils offrent l’avantage d’une très grande fiabilité, une fois évidemment les bugs (erreurs de programmation) éliminés.

Mais, on n’insistera jamais assez sur le fait que ces systèmes sont pointus, mais hyper spécialisés : un programme dédié aux échecs ne sait pas jouer au Go ; un réseau de neurones spécialisé dans la reconnaissance de chiens ou de chats est inapte à reconnaître des plantes. Leur mise au point nécessite une forte expertise humaine et un travail de développement non négligeable. Leurs capacités sont encore aujourd’hui très loin de celles d’un enfant de quelques mois ou de quelques années qui développe des capacités inouïes d’intelligence générale et d’adaptation à son environnement. Pire, on n’a encore aujourd’hui que très peu de pistes qui nous permettraient d’atteindre un jour ce niveau d’intelligence générale. On peut estimer que, pour encore longtemps, les voies naturelles utilisées par les humains depuis des millions d’années resteront les plus efficaces et les plus agréables pour faire éclore des êtres réellement intelligents.

Il faut aussi insister sur le fait que les tâches réalisées par ces systèmes artificiels sont très particulières. Il s’agit en général de tâches intellectuelles de haut niveau comme par exemple les jeux. Il est étonnant de constater qu’il est mille fois plus facile de développer un super programme de Go, considéré comme le summum de l’activité intellectuelle, que de développer un robot auquel vous pourriez confier le ménage fin de votre appartement, incluant la poussière sur vos chers bibelots, travail considéré par la société comme étant de niveau subalterne.

Par contre, on affirme souvent avec erreur que les programmes informatiques ne font que ce qu’on leur a dit de faire. C’est à la fois vrai et faux. C’est vrai parce que ce qu’ils produisent n’est que le résultat du programme informatique développé par le programmeur et des données fournies en entrée du programme. Mais, c’est aussi faux parce que ce qu’ils produisent peut être difficilement prédictible : quand je fournis à un programme de construction de plans d’activités pour un robot un objectif et des contraintes à respecter, le plan qu’il me fournit peut être, bien que correct, très éloigné de tout ce que j’avais imaginé. En ce sens, ces programmes sont doués de capacités de création.

Pour finir sur les capacités de ces systèmes, insistons sur le fait qu’il s’agit de purs cerveaux connectés à quelques capteurs et actionneurs. Ils n’ont pas de corps, donc pas de douleurs, ni de plaisirs, pas d’émotions réelles, bien qu’on puisse leur apprendre à les simuler. Cette situation constitue, selon moi, un obstacle sérieux, sinon infranchissable, à la création d’entités artificielles dotées de conscience, de volonté et d’autonomie.

Des applications dans toutes les directions

En tout cas, les domaines d’application de l’IA sont chaque jour plus nombreux : diagnostic médical, diagnostic de pannes, surveillance de systèmes ou de populations, publicité personnalisée, interaction vocale entre homme et machine, aide à l’éducation ou à la formation, génération automatique de textes ou de musique, voitures autonomes, robots chirurgicaux, robots compagnons pour personnes âgées ou déficientes, robots soldats, drones de combat, ... Le déploiement de ces applications pose cependant de nombreux problèmes :

• possible destruction massive d’emplois manuels ou intellectuels moyennement qualifiés ;

• risque de perte de contrôle par les citoyens et d’accaparement de pouvoirs exorbitants par des états ou des entreprises privées ;

• risque de pannes massives non maîtrisées ;

• risque d’intrusions et de détournements malveillants ...

Des enjeux sociétaux

Pour nous les citoyens, la question essentielle n’est pas celle des techniques utilisées, plus ou moins sophistiquées. C’est celle du choix des applications à développer. Va-t-on porter l’effort sur des applications socialement utiles dans le domaine de la médecine, de l’éducation, de l’environnement, de l’habitat ou des transports comme, par exemple, la détection de cancers de la peau à partir d’images prises par mon smartphone ? Va-t-on au contraire laisser se développer des applications potentiellement dangereuses à objectifs militaires, policiers, commerciaux, visant la surveillance ou la manipulation des populations (voir et revoir l’introduction de "2001, Odyssée de l’Espace" où la première chose que font les hominidés qui découvrent qu’un os peut être un bâton est de l’utiliser pour massacrer leurs concurrents) ou encore des applications inutiles, mais commercialement profitables comme, par exemple, des robots compagnons qui remplaceraient des intervenants humains pour assister les personnes âgées ou des micro drones pollinisateurs permettant de remplacer les abeilles qu’on a préalablement exterminées ? La question est aussi celle de la façon dont ces applications nouvelles seront développées et déployées. Permettront-elles de diminuer le temps de travail et de développer le niveau de compétences des salariés ou bien de supprimer des postes et d’augmenter le chômage ? Quelle attention sera portée à la prévention des risques liés à l’utilisation de ces systèmes ?

La question essentielle n’est donc pas technique. Elle est économique, sociale et politique. Dit autrement, ce n’est pas tant l’intelligence artificielle et les robots autonomes qu’il faut craindre, mais plutôt les hommes qui vont les développer et les utiliser. Les humains seront-ils collectivement suffisamment intelligents pour maîtriser le produit de leur intelligence ?