A l’heure où Google crée un département portant sur l’éthique de ses algorithmes d’intelligence artificielle et où Uber suspend son programme de voitures autonomes après un premier accident mortel. A l’heure où le débat sur l’intelligence artificielle s’embrouille autour de termes aussi éloignés les uns des autres qu’Elon Musk, le transhumanisme, les implications de la gdpr au sein de l’Union Européenne et le répétitif « les robots vont-ils détruire nos emplois », un débat sur l’éthique de l’IA s’impose.
Nous avons eu la chance d’assister ce soir à une conférence donnée chez Sup’internet (groupe IONIS / Epita / Epitech) l’école des hauts potentiels du Web par Golem.ai, société d’interprétation du langage.
3 invités étaient au programme qui ont développé leur vision des relations entre éthique et intelligence artificielle.
Assaël Adary issu du CELSA et fondateur d’Occurrence intervenait sur les nouveaux enjeux éthiques posés par l’intelligence artificielle
Assaël Adary a développé 6 points importants :
- Premièrement, les objets connectés posent la question de la propriété des données : les données produites par la montre connectée que je porte à mon poignet, par exemple, sont-elles ma propriété, celle de la compagnie qui a fabriqué la montre ou bien une co-propriété ? D’autant que certaines données peuvent porter sur des données « intimes » et confidentielles comme ma santé.
- Ensuite, les données produites sur les individus, notamment à l’aide d’intelligences artificielles, sont-elles des reflets des individus ou bien autre chose : par exemple, le rythme cardiaque enregistré par ma montre est-il une représentation fidèle de mon rythme cardiaque. Et ce rythme enregistré, est-ce moi, une partie de moi ou bien juste une donnée externe qui ne relève plus de mon identité ?
- Assaël Adary nous a également parlé du relativisme de la donnée : dans un univers saturé de données, où les données sont utilisées à tort et à travers pour justifier n’importe quelle décision sans plus se soucier du protocole expérimental qui les a produit, quelle valeur ont-elle encore ?
- Cela pose, de concert, la nécessité de recourir de plus en plus à des protocoles Open Data, calqués sur le modèle de la publication scientifique qui oblige les possesseurs de données à expliquer comment ils les traitent et quelle est la fiabilité des résultats. Sans confiance en l’opérateur, comment lui céder des données ?
- Assaël Adary a également posé la très bonne question ontologique de savoir si le public a envie de savoir : quand on publie des données fondées, souvent, le public et les médias y prêtent peu d’attention. Comment alors amener les gens à faire la différence entre le bon grain et l’ivraie ?
- Enfin, son intervention de se terminer sur le potentiel de l’IA dont on a encore du mal à prévoir s’il sera une mine d’or ou bien une mine anti-personnel.
Rogatien Tobossi & Olivia Vigouroux de GMF, intervenait sur le versant business de l’intelligence artificielle et ses conséquences sur l’évolution des sociétés commerciales
- Rogatien Tobossi et Olivia Vigouroux ont alors repris le flambeau en rappelant qu’une notion d’IA explicable était capitale : une IA boîte noire est par essence effrayante.
- La méconnaissance des capacités potentielles de l’IA rend les conséquences de la technologie difficile à évaluer : une IA peut-elle mentir par exemple ?
- En entreprise, l’éthique est d’abord l’éthique du dirigeant : c’est le dirigeant qui va impulser le changement. S’il croit personnellement qu’on peut aller plus loin que la loi sur les sujets éthiques, il y poussera son entreprise. Dans le bon ou dans le mauvais sens.
- L’éthique est devenue une question d’écosystème : plus les entreprises se pensent comme faisant partie d’un éco-système qu’elles peuvent abîmer et non pas comme là pour juste servir leurs intérêts, plus elles manifestent une propension éthique. Une entreprise n’a aucun intérêt à dévaster son propre marché ou bien ses fournisseurs à long terme.
- Enfin, reste aujourd’hui pour convertir les entreprises à l’éthique, la nécessité de démontrer ses bénéfices sur la croissance : plus on peut démontrer les bienfaits de l’éthique sur l’entreprise et son écosystème, avec des modèles et des chiffres, plus l’évangélisation a des chances de prendre.
Andy Mc Donald, psycho-sociologue, intervenait quand à lui sur la formulation des interrogations éthiques
Andy Mc Donald a quant à lui relevé plusieurs points très intéressants :
- L’éthique n’est pas une question interpersonnelle de morale mais une question d’enjeux et de relations entre les enjeux : l’éthique ne se pose pas la question de savoir s’il est moral pour moi d’insulter mon voisin ou de ne pas l’aider quand il est dans le besoin mais plutôt de savoir si je suis favorable à un système de valeurs comme l’écologie ou le plein emploi avec les règles qu’il impose. Il s’agit aussi de penser les relations entre les enjeux : le plein emploi est-il toujours compatible avec l’écologie ? A quel prix ? Avec quelles conséquences ?
- Il est donc nécessaire d’après Andy Mc Donald qui souligne la qualité des travaux Canadiens sur le sujet, notamment sur l’IA, de construire un cadre éthique, soutenu par la loi et appliqué par un comité éthique indépendant imposant une responsabilité descendante : ce n’est pas seulement le patron d’une entreprise qui est responsable, l’ingénieur qui a créé l’algorithme ne peut pas se dédouaner non plus.
L’avis de Fast & Fresh sur le sujet de l’éthique en intelligence artificielle :
Plusieurs points ont particulièrement retenu notre attention :
- On remarquera que la notion d’éthique rejoint souvent la notion de vol et de justice : la justice, c’est la réparation d’un vol ou d’une perte. Par exemple, si le meurtre est si grave, c’est parce qu’il ne peut pas donner lieu à réparation. Or, on sent souvent dans les débats sur l’éthique que l’éthique remue quand le public sent confusément qu’on le vole, qu’on le déleste de quelque chose. Quand la cohésion sociale souffre. C’est à ce moment que commencent de se poser des questions éthiques. Ce qui souligne aussi le fait que tant que le public est désinformé et ne sait pas qu’on le déleste, il ne peut pas se poser de questions éthiques.
- Ensuite, la sempiternelle cristallisation des enjeux autour des questions extrêmement étroites de rentabilité a tendance à enfermer tous les sujets et tous les protagonistes du domaine dans un cadre étriqué. Tant que le seul critère de développement de l’IA est le commerce agressif, il n’y a aucune place pour la science ou pour le progrès. Et les locuteurs sont alors enfermés dans des débats stériles pour savoir qui est le bon et qui est le méchant.
- Enfin, je retiendrai personnellement la citation de l’un des intervenants (tirée de la tradition grecque de l’anneau de Gygès) : l’éthique, c’est ce que je fais quand on ne me regarde pas.
A méditer.