Ingénieure, experte business de l’IA et co-fondatrice du cabinet « Éthiciens du Numérique », Iona Marcoux accompagne les entreprises dans leurs démarches éthiques appliquées au numérique.
Les modèles prévisionnels donnés par les algorithmes vont-ils accroître les discriminations sociétales déjà présentes ?
Pour répondre à cette question, il faut d’abord comprendre sur quels principes fonctionnent les algorithmes. Ils se basent sur une quantité importante de données et à partir de toutes les informations fournies par les utilisateurs, les algorithmes vont construire les modèles prévisionnels. Ainsi, si les données sont à la base biaisées, alors, sans doute le biais va se répercuter sur tout le système et produira des modèles discriminatoires.
Par exemple, en réalisant des études sur le nombre de visualisations de vidéos de musique, il en ressort qu’un certain type de danseur permet d’accroître le bénéfice induit par le visionnage. Cela risque de causer des discriminations lors du casting car les acteurs de ces vidéos doivent ainsi avoir un profil typique et stéréotypé pour être choisis. Même s’il nous semble immoral, cet arbitrage résulte d’une contradiction entre ce que veulent les créateurs et leurs clients, la partie gagnante étant le plus souvent les clients. Les créateurs, soucieux de payer les employés à la fin du mois, se laissent prendre par la demande de leurs clients et la satisfont sans se poser la question de l’éthique. Les algorithmes répercutent les inégalités de par le pouvoir de leur clients, ces derniers utilisant volontairement des données biaisées.
Dans quelle mesure peut-on s’assurer de la neutralité des bases de données et quelle responsabilité lors de la présence de biais dans les données ?
La neutralité n’est jamais garantie, il en résulte un contrat de confiance avec l’entreprise. La question de la responsabilité amène plusieurs réponses: “est-ce la faute du développeur, du client (entreprise), de l’ingénieur?” Posez la question à chacun d’entre eux, ils trouveront une manière de se dédouaner. In fine, il en va de la responsabilité des entreprises de s’assurer qu’elles ne violent pas les principes étatiques et moraux. Dans un second temps la question amène à se demander quelle est la place de l’utilisateur par rapport aux algorithmes. Le mot d’ordre est éducation.
L’IA fait son entrée dans les hôpitaux, mais à quel prix ? Cela amène un nouveau dilemme: “Faire confiance à la machine ou bien se baser sur son expérience ?”. En effet, si la machine se trompe, il est toujours possible de rejeter la responsabilité sur les algorithmes, dans le cas contraire le problème est plus épineux… Une fois de plus la solution semble être la voie du milieu: “La machine est et doit demeurer un outil d’aide à la prise de décision, la présence de l’Homme reste essentielle”. Cette approche reste basée sur l’idée iconoclaste de l’Intelligence Artificielle “parfaite” qui ne commet aucune erreur puisqu’elle peut connaître et comparer infiniment plus de données en une fraction de seconde que n’importe quel homme au cours d’une vie d’apprentissage.
Les algorithmes sont aujourd’hui utilisés dans le cadre de la segmentation, de la publicité ciblée et, dans un autre contexte, sur le marché du recrutement, l’IA risque-t-elle de léser certains candidats ?
Le ciblage est une pratique assez répandue, “un bon marketing est un marketing de la frugalité”, en ce sens qu’il propose des services adaptés au consommateur en le ciblant. Un cas plus délicat de cette pratique est le “credit-scoring” appliqué par les banques et compagnies d’assurances. La réponse délivrée par l’algorithme conditionne ici l’obtention ou non du crédit par le client. In fine, les algorithmes peuvent être des “outils comme des armes”, tout dépend de leur emploi et de la transparence vis-à-vis du client.
Dans quelle mesure le RGPD permet-il de protéger les internautes européens ?
Le RGPD (Règlement Général sur la Protection des Données) permet une implémentation (plus ou moins souple) des normes éthiques et morales au sein des applications de l’IA par les entreprises sous peine de sanctions. Ce dernier point est intéressant, en effet, il semble que l’éthique soit perçue comme une contrainte par les entreprises. [nous y reviendrons] Une fois de plus, la réponse se trouve dans l’éducation et la sensibilisation du grand public à ces pratiques et enjeux liés à l’intelligence artificielle.
Comment s’assurer de la fiabilité des décisions prises par l’algorithme si la grande majorité des utilisateurs ne comprennent pas leur fonctionnement?
L’intelligence artificielle est un vaste domaine et qui est lui-même divisé en plusieurs sous-domaines, l’un étant le “Machine Learning” ou “Apprentissage Automatique”. Comme son nom l’indique, les machines ont la capacité d’apprendre de nouvelles choses sans qu’elle soit explicitement programmée à le faire (définition de MIT Sloan). En ce sens, la machine peut être considérée comme étant aussi capable comme l’Homme, contrairement à ce qu’elle est désignée à faire : être un outil pour aider et faciliter les tâches pour les êtres humains. Ce pouvoir extraordinaire des machines rend l’explication de son fonctionnement au grand public très difficile. Pour illustrer ce propos, penchons nous sur l’exemple de la plateforme Parcoursup. Un manque de transparence fait que quand les candidats n’obtiennent pas de proposition pour leur école favorite. Ou bien dans l’exemple de la banque lorsqu’un emprunteur se voit refuser un prêt, la machine n’est pas capable de donner une raison à ce rejet, elle fournit une réponse duale: oui ou non. Par conséquent, nous constatons une grande faille à propos du paradoxe de la “Boîte noire”. Il résulte d’un manque d’éducation et de recherche qui fait que le grand public est dans l’incompréhension quant au fonctionnement des algorithmes et aux réponses de ces derniers. Pour lutter contre cette aversion, notre interlocutrice souligne l’importance de la surveillance humaine derrière ces machines pour fournir de l’assistance aux clients.

De nombreuses institutions étatiques telles que intel.gov (Etats-Unis) ou NITI (Inde) encouragent et œuvrent à un développement éthique de l’IA. Ces instances sont-elles efficaces sur le plan national et/ou mondial ?
Avant de s’attarder sur le cas de l’IA, il convient de se questionner sur l’éthique. Il convient de dire “les éthiques »: en effet, chaque société possède une histoire différente, de facto, les normes et les valeurs varient d’un peuple ou d’une région à l’autre. Le concept de législation universelle autour de l’intelligence artificielle semble difficile voire impossible à mettre en œuvre donc. Dans la plupart des articles qui traitent de l’éthique du numérique, l’on retrouve une vision occidentale de l’éthique qui plaide pour une transparence avec l’utilisateur et un respect de la confidentialité. Au sein même de ce groupe occidental il existe des divergences: aux États-Unis, l’État a le droit de stocker et de regarder l’ensemble des données de ces citoyens, une vision bien différente de celle de l’Union Européenne.
QUID des pays en développement ?
Les pays en développement sont en marge de cette révolution de la donnée, ce qui renforce cet oligopole Europe-Amérique-Japon. Le mot d’ordre pour arriver à implémenter l’IA avec succès est « tolérance et diversité”. Il ne suffit pas de vouloir bien faire, en effet il faut tenir compte des différentes visions de l’éthique et des mœurs locales.

Aujourd’hui, les réseaux sociaux sont la plaque tournante du marketing et de la publicité. Ils jouent un rôle prépondérant assurant la liberté d’expression et la visibilité de chacun. L’acquisition controversée de Twitter par Elon Musk a suscité de nombreux débats. Pensez-vous que la vision “idéaliste” de Musk pourra voir le jour tout en assurant la confidentialité des utilisateurs et la véracité des informations?
Les réseaux sociaux font partie intégrante de nos vies : ils nous permettent de communiquer et de nous informer. Cependant, il serait faux de croire que la confidentialité des utilisateurs est respectée sur ces plateformes, même s’il existe des régulations comme le RGPD en Europe.
Attardons-nous maintenant sur le sujet de la liberté d’expression et plus globalement, la liberté. Le 8 janvier 2021, Twitter a supprimé le compte de Donald Trump et l’a banni, sachant que c’était le président des États-Unis, “l’homme le plus influent du monde”. Cet acte constitue une privation de la liberté individuelle. En effet, les réseaux sociaux semblent détenir un pouvoir bien supérieur à n’importe quel individu, peu importe son statut ou sa notoriété. Sous prétexte de garantir la liberté d’expression des autres utilisateurs de Twitter, l’entreprise a retiré ce droit à Donald Trump. Il faut mettre en exergue l’importance d’appliquer les libertés individuelles, en vigueur dans nos civilisations, aux réseaux sociaux.
Cependant, avec l’acquisition de Twitter par Elon Musk, la véracité des informations qui vont être publiées sur ce média n’est plus garantie. Cette liberté d’expression totale que Musk accorde aux utilisateurs de Twitter peut être nuisible. Mais avant tout, elle présente une nouvelle forme de confiance entre l’entreprise et les utilisateurs.
Quel est votre point de vue sur la situation actuelle de l’éthique dans notre société ? Quelles sont les avancées nécessaires que les institutions gouvernementales et les entreprises devront implémenter pour permettre une intégration éthique et responsable de l’IA dans la société ?
Il reste du chemin à parcourir ! Le problème majeur des entreprises exerçant dans l’informatique est le manque d’ouverture et de communication avec d’autres champs d’étude, notamment l’éthique et la philosophie. Il convient de concilier les visions des ingénieurs et des éthiciens. Ayant réalisé plusieurs enquêtes sur de grandes entreprises informatiques affirmant être respectueuses de la confidentialité de ses clients, je me suis rendue compte qu’elles n’adoptent pas de réelle charte éthique.
Les GAFAM considèrent ainsi le « Business-model de l’éthique comme “un gain à long terme qui permet de préserver leur image.”
En sortant des études universitaires, les jeunes sont souvent en manque d’expérience. Ils n’arrivent pas à poser les questions pertinentes concernant l’éthique de l’IA. Il est donc impératif qu’ils soient soutenus par des experts. Cette nouvelle approche permettra aux entreprises de répondre de manière efficace aux demandes de leurs clients mais également de respecter les principes moraux et d’éviter d’accroître les discriminations. Cependant, pour réaliser un tel projet, il est essentiel d’avoir une équipe diverse dédiée à l’IA, au sein d’une entreprise, avec des employés de culture et d’expériences complémentaires. Ainsi, les trois conditions sine qua non pour une implémentation juste et éthique de l’IA sont une vision commune et unanime dans l’ensemble des départements de l’entreprise, la diversité et surtout, l’éducation et la formation dans l’éthique de l’IA.
L’éthique de l’IA semble ainsi être un domaine à géométrie variable. D’un côté, nous voyons les grandes entreprises, qui sont moins soucieuses de l’éthique de l’IA parce qu’elles ne feront pas assez de profits. De l’autre côté, il y a des start-ups, qui suivent le modèle de « l’éthique by design”. Elles sont préoccupées par le sujet et font en sorte que “la machine et l’homme fonctionnent de concert”.
Propos recueillis par Théo Focsa & Suvomita Roy.