Blog HPE, France
annuler
Affichage des résultats de 
Rechercher plutôt 
Vouliez-vous dire : 

Peut-on accorder toute sa confiance à l’intelligence artificielle ?

Joanna_K

 

Nicolas Bohy.jpgNicolas Bohy

France HPE Pointnext General Manager

Hewlett Packard Enterprise

nicolas.bohy@hpe.com

Les fabuleux progrès réalisés dans le domaine de l’intelligence artificielle ces dix dernières années sont extrêmement prometteurs et de nombreux secteurs d’activité y ont déjà recours comme la recherche médicale . L’IA d’aujourd’hui a pris la forme de systèmes capables d’apprendre (Machine Learning et Deep Learning). Ils atteignent souvent une précision supérieure à celle de l’homme avec une plus grande rapidité. Ces succès ont tendance à nous faire oublier que l’IA repose sur des algorithmes pensés et codés par des humains et entrainés sur des jeux de données. Ces algorithmes sont donc le reflet de priorités, de préférences et de préjugés

On peut naturellement douter de la neutralité et de l’infaillibilité de l’IA. Sans que nous en ayons toujours conscience, des algorithmes interviennent régulièrement dans l’attribution de prêts bancaires, d’assurances ou de places universitaires. Aux États Unis des suspects resteront ou non en prison dans l’attente de leur jugement en fonction des décisions d’algorithmes adoptés par plusieurs tribunaux américains qui accordent une note au suspect d’après certains critères. L’IA classe selon des probabilité et des tendances observées. Cela peut conduire à des inégalités et à de la discrimination. La mathématicienne Cathy O’Neal n’a pas hésité à intituler son dernier livre « Weapons of Math Destruction » (titre français « Algorithmes : la bombe à retardement » ) pour nous alerter sur les risques d’algorithmes incompréhensibles pour le commun des mortels. De plus en plus de personnes et d’organismes s’inquiètent de l’éthique de l’IA et on voit fleurir de nombreuses initiatives. L'Union européenne a réuni 52 experts pour réfléchir sur l'éthique de l'Intelligence Artificielle, les grandes entreprises de la tech ont mis en place un groupe de réflexion « The Partnership on AI » et  l'Unesco veut également proposer des principes éthiques pour l'intelligence artificielle.

Des préjugés présents dans le code et dans les données d’apprentissage.

L’intelligence artificielle n’est ni bonne ni mauvaise. Elle n’a aucune conscience par elle-même. Elle est régie par du code et éduquée par des données. Elle peut contribuer à améliorer la recherche médicale ou conduire à des discriminations. De nombreux exemples nous obligent à redoubler de vigilance. En 2015 Le logiciel de reconnaissance faciale de Google attribuait le terme de « gorille » a des afro-américains. Non du fait d’un racisme revendiqué, Google a présenté ses excuses, mais à cause du jeu de données d’apprentissage composé à majorité de visages de blancs. Ce n’est pas un cas isolé comme l’a démontré une étude menée en février 2018 sur les algorithmes de Microsoft et d'IBM qui reconnaissaient quasiment sans erreur des hommes blancs alors que pour des femmes noires le taux d’erreur était de 21 à 35%. Comme les panels utilisés par les instituts de sondages, les jeux de données doivent être représentatifs de la société. Pour lutter contre ce manque d’inclusion, certains cherchent à rendre le code plus exclusif à l’image de Joy Buolanwini, fondatrice d’Algorithmic Justice League, qui a développé le concept « d’incoding ».

Le risque de reproduire les travers du passé. L’IA est une alchimie complexe entre code et données. Dans la société les biais sont nombreux et nous n’en avons bien souvent pas conscience. L’IA a tendance à reproduire des situations jugées « réussies » dans le passé selon les critères de l’époque. En 2014 Amazon a voulu améliorer son processus de recrutement en développant un logiciel qui examinait automatiquement le CV des candidats en attribuant une note de 1 à 5. Un an après Amazon s’est aperçu que le logiciel avait un comportement sexiste en décernant la préférence aux candidats masculins. Amazon a apporté par la suite des modifications pour corriger ces biais mais a finalement jeté l’éponge en 2018.  Le jeu de données ne correspond pas toujours à l’évolution de notre société. Les biais sont un véritable problème et peuvent se répandre à la manière d’un virus à l’insu des développeurs eux-mêmes. Pour gagner du temps les développeurs font souvent appel à des bibliothèques de codes déjà créés. Si ces codes contiennent des bais ils sont reproduits dans les algorithmes ou les applications qui les intègrent.

Faire progresser l’IA tout en respectant nos données personnelles.

L’IA a besoin de s’entrainer sur des volumes de données importants pour gagner en précision mais de nombreuses données touchent à la vie privée. Cette notion de protection de vie privée qui a fait l’objet d’une réglementation européenne (le RGPD) varie d’un continent à l’autre selon la culture, les valeurs et les régimes politiques. Les Etats Unis, la Chine et l’Europe n’abordent pas la question de la même manière. La Chine a mis en place un système de notation des citoyens (Social Credit System) qui accorde ou refuse des droits aux citoyens en fonction de leur conduite. Un moyen de surveillance poussé à l’extrême qui a empêché des millions de chinois de réserver des vols ou des trains parce qu’il n’avait pas payé une amende ou acquitté leurs impôts. Le recours systématique à la reconnaissance faciale pour lutter contre la fraude dans le métro ou pour fluidifier le trafic des passagers dans les aéroports posent clairement la question de l’utilisation de ces informations par la suite. La propriété de la donnée et son utilisation sont des sujets sensibles et encore récemment il a été reproché à IBM d’avoir utilisé des millions de photographies hébergées par Flickr sans avoir obtenu au préalable l’accord ni des auteurs ni des sujets photographiés.

Charte, justice et contrôle. Toutes les déclarations d’intention pour se conformer à une éthique (qu’il convient de définir) sont louables mais elles n’engagent que ceux qui y adhèrent. L’éthique ne doit pas devenir un handicap pour ceux qui jouent le jeu. On doit donc s’interroger sur la manière de définir et d’imposer une éthique commune à l’ensemble des acteurs qui cadre l’usage de l’IA. Les algorithmes comportent des biais cognitifs propres à ceux qui les conçoivent et les développent. Les jeux de données qui servent à entrainer ces algorithmes peuvent eux-mêmes être biaisés. On pense bien sûr aux biais sexistes et racistes mais ce ne sont pas les seuls. D’une manière générale ils sont liés à la culture, au sexe, aux origines, au mode de vie, à l’éducation, à la religion …. C’est par souci de justice qu’il faut combattre ces biais car ils sont source de discrimination. 

La loi de 2016 pour une République numérique prévoit la mise en ligne des décisions de justice. Ce mouvement vers l’open data ouvre la voie à une justice assistée par l’intelligence artificielle. Encore faudra-t-il être capable d’expliquer des décisions de justice qui auront été prises avec l’assistance d’un algorithme.

Au-delà de la complexité réglementaire pour des acteurs de cultures et nationalités différentes se pose la question de « l’explicabilité » des algorithmes.  On peut imaginer dans le futur des organismes de contrôles indépendants en capacité d’auditer ces algorithmes d’intelligence artificielle comme le suggère Cedric Villani dans son rapport sur l’intelligence artificielle.

---------------------------------

Pour tous ceux qui sont intéressés par le sujet de « l’éthique de l’IA » je vous invite à nous rejoindre lors du SIDO les 10 et 11 avril à Lyon.

--------------------------------

Suivez l'actualité de HPE France sur :

 

twitter.com/HPE_FR
linkedin.com/company/hewlett-packard-enterprise/
hpe.com/fr

0 Compliments
À propos de l'auteur

Joanna_K

Social Media & Digital MKTG HPE France Publishing on behalf of various authors