Ethique et intelligence artificielle
L’application STOPCOVID ne fait pas l’unanimité, mais suscite néanmoins l’approbation d’une majorité de Français (59% de favorables versus 41% d’opposés).
C’est ce que révèle l’étude Harris Interactive à la demande de Data Publica qui nous apprend également qu’il y a autant de fervents soutiens (21% « tout à fait favorables ») que de nets opposants (21% de « tout à fait opposés »)
La tribune de Adrien Bouhot Co-fondateur & Chief Data Valid&Go, issue du cahier tendance du Welcome City Lab, prend tout son sens :
Les données font partie intégrante de notre quotidien. Depuis maintenant de nombreuses années, elles servent à concevoir des algorithmes, qui s’invitent ensuite parmi tous les secteurs d’activité de nos sociétés modernes, remodelant en profondeur nos méthodes de travail et de pensée. Mais l’éthique est souvent perçue et invoquée comme une contrainte. Peut-on analyser la situation de manière plus avantageuse ?
Des exemples démontrent que les algorithmes se sont frayés un chemin dans le monde de la finance, de la justice, du commerce, de la santé, dans le but d’améliorer chacun de ces services, de les personnaliser en fonction des usagers, mais aussi de largement limiter la prise de risques. Leur influence est globale, grandissante, et logiquement, ce sont nos décisions individuelles qui se retrouvent de plus en plus souvent impactées.
Quelques exemples pour mieux visualiser l’omniprésence de l’intelligence artificielle :
- Le « score d’octroi » permet à nos banques de calculer pour chaque client leur probabilité de rembourser un crédit, chiffre qui servira à décider si oui ou non, votre prêt doit vous être accordé.
- Le « reciblage publicitaire », bien connu de tout utilisateur d’Internet, permet de vous retrouver directement sur les différentes pages que vous visitez, pour afficher la publicité d’un site marchand précédemment visité.
- La « recommandation produit » détermine quels articles vous ont intéressé sur un site de vente, et se charge de vous en proposer d’autres, de nature similaire.
- La « note de récidive » est un outil utilisé par les juges pour établir le profil d’un condamné, et décider si ce dernier mérite une éventuelle remise de peine.
- L’« analyse de scanner », peut notamment servir à détecter les cancers du poumon, en passant au crible des centaines de coupes compilées en une seule image globale, offrant un immense gain de temps en plus d’une grande précision.
L’ÉTHIQUE FAIT CONSENSUS
A tout domaine en expansion doivent être associés une direction, et un cadre. Ce dernier a désormais trouvé un nom :
l’intelligence artificielle « éthique ». Le terme, inévitable dans le débat public, semble parfaitement englober nos attentes collectives face aux dangers posés par l’invasion des données. La France, par exemple, se l’est appropriée par l’intermédiaire du rapport Villani, publié en 2018, qui préconise la création d’une instance justement dédiée à ce principe éthique.
Le respect de la vie privée des usagers, la transparence quant aux méthodes de création des algorithmes et l’élimination systématique des biais, créateurs de stigmatisation, sont quelques-uns des objectifs de ce principe éthique.
Un cahier des charges validé par les pouvoirs publics, mais que les pouvoirs privés n’hésitent pas non plus à revendiquer, les plus grandes entreprises s’alignant à travers un rassurant discours commun.
Les points deux, quatre et cinq de la charte sur l’intelligence artificielle de Google stipulent : « ne pas créer ou renforcer des biais injustes », « être responsable face aux personnes », « intégrer des principes de conception et de respect de la vie privée ». Le géant américain va même plus loin. Prabhakar Raghavan, son vice-président du secteur publicité, considère que la firme devrait progressivement utiliser le moins possible de données pour le ciblage publicitaire. « Celui qui dominera le marché [dans cinq ans] sera celui en qui l’on aura le plus confiance. Si nous pouvons maintenir cette confiance, nous pouvons rester un leader du marché ». Au nom de l’éthique, Google affiche donc un désir clair de se faire moins intrusif, et de s’engager sur le chemin de la confiance et de la transparence.
Facebook n’est pas en reste, après avoir annoncé en janvier 2019 la création d’un centre de recherche sur l’éthique, situé à Munich. Nommé « Institut pour l’éthique de l’intelligence artificielle », ce centre, bien que financé par l’entreprise américaine, sera entièrement indépendant dans ses choix et méthodes de recherche, c’est ce qu’affirme Joaquin Quiñonero Candela, directeur de l’apprentissage automatique appliqué chez Facebook. L’installation en Europe n’est pas non plus anodine. Toujours selon Candela, il est essentiel que les recherches ne soient pas menées uniquement d’un point de vue américain. « L’Europe ouvre la voie sur la régulation, avec le RGPD par exemple, sur la protection des données. »
Nous le savons, Europe et entreprises américaines de pointe sont régulièrement en conflit sur le sujet de la régulation et donc, de l’éthique. Des déclarations et initiatives comme celles évoquées ci-dessus démontrent une volonté d’apaisement, ainsi qu’une tendance générale à développer l’intelligence artificielle de manière responsable.
le quotidien du tourisme du 19 mai