Les intelligences artificielles nous permettent de réaliser des tâches plus efficacement en dépensant moins d’énergie. Cependant, comme toutes les nouvelles technologies, leur utilisation à mauvais escient (de mauvaise manière) inquiète certains scientifiques.

Plus d’I.A., moins d’emplois

Le premier gros problème que provoquera l’arrivée des I.A. est une baisse du nombre d’emplois. Pourquoi confier un travail à un humain, lorsqu’un robot peut l’effectuer tout aussi bien, mais plus rapidement et avec une marge (probabilité) d’erreur réduite?

Hugues Bersini, directeur du laboratoire d’intelligence artificielle IRIDIA de Bruxelles, prend l’exemple de la médecine: «De nos jours, de plus en plus de radiologues sont remplacés par des machines. Cela laisse plus de temps aux médecins pour interagir avec les patients.» Pour le chercheur, il y a de nombreux domaines dans lesquels une I.A. n’est pas plus performante qu’un humain: « Tous les métiers du social, comme l’éducation ou les soins à la personne par exemple. Quand il s’agit de relationnel, le contact entre êtres humains est vraiment important.»

Robots tueurs

Un autre sujet sensible est l’utilisation des I.A. dans le domaine militaire. Sont-elles capables de prendre des décisions complexes (difficiles) mettant la vie d’êtres humains en danger? Pourraient-elles par exemple distinguer un militaire d’un civil lors d’un affrontement?

En juillet 2015, de nombreux chercheurs en robotique, ainsi qu’Elon Musk, ingénieur et célèbre entrepreneur américain, et Stephen Hawking, grand physicien britannique, ont publié une lettre ouverte demandant aux pays du monde l’interdiction des «robots tueurs». Ils ne veulent pas que des décisions aussi difficiles soient confiées à des machines, et craignent qu’un jour, ces technologies tombent entre les mains de terroristes.

Peur

Stephen Hawking et Elon Musk ont exprimé une autre peur, celle de la singularité technologique : qu’un jour, les I.A. deviennent assez développées pour s’améliorer de façon autonome, devenant très rapidement bien supérieures aux êtres humains.

Selon Hugues Bersini, ce n’est pas près d’arriver: «Les I.A. que nous programmons aujourd’hui sont extrêmement restreintes, compétentes dans une seule tâche à la fois. Elles sont encore très loin d’avoir un tel niveau de conscience. Il ne faut pas s’inquiéter pour des scénarios aussi imprévisibles. »

En fonction des règles qui encadreront les recherches en intelligence artificielle, cette technologie pourrait donc devenir, comme le disait Stephen Hawking (décédé en mars 2018), «la pire ou la meilleure chose arrivée à l’humanité.»