Décryptage du droit à l'explication en intelligence artificielle

Publié: 2020-10-31

L'un des développements politiques les plus importants pour réglementer l'application de l'IA a été inclus dans le RGPD en 2018

Tout comme la variété de moteurs à combustion interne qui existent aujourd'hui, les modèles et algorithmes d'IA sont de différents types avec différents niveaux de complexité

Lors de la prise de décisions, l'IA n'attache pas de sens et catégorise les nouvelles informations de la même manière que les humains

L'intelligence artificielle, pour la plupart des gens, est une technologie qui alimente au mieux les chatbots ou la reconnaissance d'images - en gros, un logiciel qui différencie les images des chats des chiens. D'autres y voient une menace sérieuse pour leur travail quotidien régulier. Indépendamment de son impact sur leur vie, les gens considèrent l'IA comme une technologie avec un potentiel futur énorme. Alors que l'avenir de l'IA suscite admiration et peur, son impact sur le présent reste largement méconnu. De la présélection des CV à la diffusion de la propagande, l'IA travaille plus dur sur nous que la plupart d'entre nous ne le savent. Les effets sont importants et les dirigeants du monde entier s'en rendent compte rapidement.

Battant pour le cadre réglementaire lors du symposium du centenaire AeroAstro du MIT , Elon Musk a déclaré: «Je suis de plus en plus enclin à penser qu'il devrait y avoir une certaine surveillance réglementaire, peut-être au niveau national et international, juste pour s'assurer que nous ne faisons rien très stupide. Je veux dire qu'avec l'intelligence artificielle, nous invoquons le démon.

L'un des développements politiques les plus importants pour réglementer l'application de l'IA a été inclus dans le RGPD en 2018. L'article 22, sous la section 4 du RGPD, stipule essentiellement que si votre candidature à un emploi, à un prêt ou à la citoyenneté est rejetée sur la base des scores d'un logiciel de traitement automatisé intelligent, vous avez le droit d'exiger une explication. Le non-respect pourrait entraîner une amende pouvant aller jusqu'à 20 millions d'euros ou 4 % du chiffre d'affaires annuel global de l'entreprise. L'idée est d'éliminer les prédictions de comportement discriminatoires et les stéréotypes basés sur des données. Et c'est le droit à l'explication en un mot.

Pourquoi le droit à l'explication est-il nécessaire ?

Les scores utilisés pour faire des prédictions sont basés sur l'évaluation de plusieurs variables apparemment sans rapport et leurs relations avec un ensemble d'algorithmes. Sans intervention humaine, les résultats peuvent parfois être erratiques. Non contrôlés, ceux-ci peuvent ouvrir la voie à des stéréotypes new-age et alimenter les préjugés existants. Bien que l'IA fonctionne avec des données, les données elles-mêmes peuvent engendrer des biais, même les systèmes d'IA les plus robustes.

Par exemple, le rejet d'une demande de prêt hypothécaire par un système basé sur l'IA peut avoir des retombées imprévues. Un algorithme d'auto-apprentissage, basé sur des données historiques, peut faire correspondre l'âge et le code postal du demandeur à un groupe de personnes qui n'ont pas remboursé leurs prêts au cours du dernier trimestre. Ce faisant, il peut négliger certains critères favorables, comme la qualité des actifs, absents des données historiques.

Sans explication valable, le refus pourrait donner lieu à des poursuites judiciaires pour stéréotypes et discrimination, notamment si le quartier abrite des personnes appartenant majoritairement à un groupe minoritaire. Par conséquent, en tant que technologie qui a le potentiel de prendre des décisions au nom des humains, l'IA doit respecter l'éthique, l'équité et la justice dans les interactions humaines. Au strict minimum, elle doit satisfaire les types de justice suivants :

Recommandé pour vous:

Comment le cadre d'agrégation de comptes de RBI est sur le point de transformer la Fintech en Inde

Comment le cadre d'agrégation de comptes de RBI est sur le point de transformer la Fintech en Inde

Les entrepreneurs ne peuvent pas créer de startups durables et évolutives via « Jugaad » : PDG de CitiusTech

Les entrepreneurs ne peuvent pas créer de startups durables et évolutives via "Jugaad": Cit ...

Comment Metaverse va transformer l'industrie automobile indienne

Comment Metaverse va transformer l'industrie automobile indienne

Que signifie la disposition anti-profit pour les startups indiennes ?

Que signifie la disposition anti-profit pour les startups indiennes ?

Comment les startups Edtech aident à améliorer les compétences et à préparer la main-d'œuvre pour l'avenir

Comment les startups Edtech aident la main-d'œuvre indienne à se perfectionner et à se préparer pour l'avenir...

Stocks technologiques de la nouvelle ère cette semaine : les problèmes de Zomato continuent, EaseMyTrip publie des...

  • Distributif – répartition socialement juste des ressources, des opportunités et des récompenses
  • La procédure - processus juste et transparent pour arriver à un résultat
  • Interactionnel - le processus et le résultat doivent tous deux traiter les personnes affectées avec dignité et respect

Le droit à l'explication ferme cette boucle de justice très importante dans l'utilisation de l'IA.

L'IA et les défis du droit à l'explication

Tout comme la variété de moteurs à combustion interne qui existent aujourd'hui, les modèles et algorithmes d'IA sont de différents types avec différents niveaux de complexité. Le résultat de modèles plus simples, comme la régression linéaire, est relativement facile à expliquer. Les variables impliquées, leur poids et leurs combinaisons pour arriver au score de sortie sont connus.

Les algorithmes complexes tels que l'apprentissage en profondeur, tout en s'efforçant d'obtenir une plus grande précision, agissent comme une boîte noire - ce qui se passe à l'intérieur, reste à l'intérieur. Avec des algorithmes qui s'auto-apprennent et construisent des modèles, la cause d'un certain résultat est difficile à expliquer, car :

  • Les variables réellement utilisées par les algorithmes ne sont pas connues
  • L'importance/le poids attaché aux variables ne peut pas être rétrocalculé
  • Plusieurs construits intermédiaires et relations entre variables restent inconnus

Si les processus d'admission à l'université étaient entièrement alimentés par des réseaux de neurones, cela aurait rendu le processus plus opaque qu'il ne l'est aujourd'hui. Se voyant refuser une place dans une université de premier plan, parce que leur algorithme trouve qu'un certain "fond" est moins adapté, vous vous demanderiez quelle partie de votre "fond" a joué contre vous. Pire encore, le comité d'admission ne parviendrait pas à vous l'expliquer. Dans un État où les inégalités sociales abondent, une IA opaque est la dernière chose que les universités demanderaient.

D'autre part, une IA complètement transparente rendrait l'algorithme vulnérable au jeu et conduirait au détournement de l'ensemble du processus d'admission. Le droit à l'explication consiste donc à ce que l'IA atteigne le bon degré de translucidité ; il ne peut être ni complètement transparent ni opaque.

La voie à suivre

Lors de la prise de décisions, l'IA n'attache pas de sens et ne catégorise pas les nouvelles informations de la même manière que les humains. Il renforce les schémas les plus courants et exclut les cas qui ne sont pas majoritaires. L'une des solutions techniques possibles activement explorées consiste à rendre l'IA explicable. L'IA explicable (XAI) est indispensable dans les cas d'utilisation pertinents à haut risque et à fort enjeu, comme le diagnostic médical où la confiance fait partie intégrante de la solution. Sans suffisamment de transparence sur son traitement interne, les algorithmes de Blackbox ne parviennent pas à offrir le niveau de confiance requis pour sauver une vie.

Avec une fragilité si ancrée dans son architecture fondamentale – à la fois technologique et statistique – l'IA a besoin d'être réglementée. Comme Sundar Pichai l'a écrit dans un Financial Times plus tôt cette année, « Maintenant, il ne fait aucun doute dans mon esprit que l'intelligence artificielle doit être réglementée. C'est trop important pour ne pas le faire. La seule question est de savoir comment l'aborder.

Le cadre juridique régissant l'IA évolue et est en pleine mutation dans différentes parties du monde.

En Inde, avec le droit à la vie privée au centre du débat national il y a quelques mois, nous ne sommes pas loin d'une loi complète réglementant l'IA en train de prendre forme. Notamment, un document de discussion publié par NITI Aayog en juin 2018, aborde le sujet de manière très détaillée. Au fil du temps, à mesure que la sphère d'influence de l'IA s'étendra, les lois, en réponse, deviendront plus strictes pour inclure davantage de dispositions.

Au fur et à mesure que la technologie se développe et que de nouvelles applications sont découvertes, l'industrie a besoin d'une autoréglementation. Les organisations doivent se concentrer de manière proactive sur la mise en œuvre de XAI qui préserve la nature humaine des interactions, basée sur la confiance et la compréhension. Au moins, cela empêchera des innovations potentiellement révolutionnaires d'être étouffées par ce qui pourrait être des lois protectrices bien intentionnées. Comme pour la plupart des choses dans la vie, la solution consiste à trouver le bon équilibre.