Karine Gentelet est professeure agrégée au Département des sciences sociales de l’Université du Québec en Outaouais, sociologue et anthropologue dans la région d’Ottawa au Canada. En automne 2020, elle est devenue titulaire de la Chaire de recherche sur l’Intelligence Artificielle et la justice sociale à L’Ecole Normale Supérieure -Abeonas -Obvia. Elle aborde l’Intelligence Artificielle avec un regard éthique et social et analyse ses enjeux et son utilisation chez des populations autochtones au Canada.
Qu’est ce qui vous a poussé à travailler dans le domaine de l’IA ?
Depuis les 20 dernières années, je travaille en collaboration avec les peuples autochtones qu’on appelle au Canada les Premières Nations sur les mécanismes de reconnaissance de leurs droits. On l’appelle en anglais empowerment, mais on cherche concrètement à comprendre comment on peut mettre en place des mécanismes de renforcement des capacités qui soient par les groupes autochtones et définis pour les groupes autochtones. J’ai rencontré dans mes recherches et sur le terrain des groupes qui utilisaient les systèmes de visioconférence pour améliorer l’accès à la justice, notamment des communautés qui étaient dans le nord du Canada, donc très très éloignées, avec des infrastructures qui sont manquantes; il n’y a pas de routes, c’est des chemins forestiers de terre, donc on imagine qu’il y a pas de fibre optique ou quoi que ce soit. Ainsi, ces groupes essayaient d’aller chercher des fonds (qu’ils ont obtenu d’ailleurs) et qui mettaient en place des systèmes de justice dans les communautés. Cela évitait par exemple aux justiciables de se déplacer quand ils avaient une contravention ou quand il y avait un procès, et cetera. Ils pouvaient le faire dans leur communauté, via le cloud, via la visioconférence. Cela permettait aussi ce que l’on appelle au Québec une pratique de sécurisation culturelle, c’est-à-dire d’avoir des interprètes qui pouvaient leur parler dans leur langue et qui faisait baisser le niveau de stress dans un procès. L’avantage de ces interprètes, quand on a des systèmes très sophistiqués, numériques notamment, est que les interprètes peuvent être n’importe où et peuvent quand même donner leurs services en ligne. Cela fait énormément baisser les coûts parce qu’il faut savoir que la justice, notamment dans le nord du Canada, le nord du Québec, coûte très cher en déplacements. Parce qu’en fait, soit on fait venir les justiciables jusqu’au Sud (dans quel cas il faut les déplacer en avion), soit on passe par la cour; il y a les cours itinérantes qui se déplacent, mais la cour itinérante vient tous les trois mois, ce qui pose également problème.
J’ai commencé à m’intéresser à ce phénomène là, dans la mesure où les gens qu’on dit soit disant défavorisés et “vulnérables” ne sont pas si vulnérables que l’on pourrait penser parce qu’ils sont capables de trouver des solutions pour eux mêmes, des solutions que l’on pense souvent ne pas être abordables à leur échelle.
Finalement ce n’est pas la technologie qu’est l’enjeu. Ce qui est important pour eux, c’est l’objectif qu’ils vont prendre, ainsi que tous les outils qui sont à leur disposition pour atteindre cet objectif-là. Je suis partie vers cet objectif, en me demandant comment est-ce que les gens répondent à leurs enjeux d’injustice sociale pour justement enlever cette injustice là et comment est ce qu’ils utilisent la technologie pour y arriver ? C’est comme ça que je suis rentrée dans l’intelligence artificielle.
Il faut dire aussi qu’au Québec, et particulièrement à Montréal, il y a ce qu’on appelle un hub en intelligence artificielle, il y a beaucoup de financements qui sont offerts aux chercheurs. C’est donc comme ça que je suis rentrée dans le milieu numérique/IA il y a six, sept ans.
Certains groupes marginalisés sont d’ailleurs très en avance sur la compréhension qu’ils ont des enjeux du numérique et ont déjà commencé à avoir une réflexion sur l’intelligence artificielle. Ceci étant, sont énormément intéressés par les potentialités des outils numériques, incluant l’IA, pour répondre à leurs besoins qui sont spécifiques et pour lesquels l’État n’a encore pas développé de solutions qui les concernent. Souvent, l’État et les services publics développent des solutions qui s’adressent à la très grande majorité. Néanmoins, les groupes qui sont en marge de la société n’ont pas d’anges, et n’ont donc pas de solutions qui répondent à leurs besoins. Et la pandémie l’a bien illustré. L’autre enjeu qu’on essaye de sensibiliser, c’est que finalement, les outils d’IA comportent une part de biais qui est très importante et des biais qui reflètent les biais de la société.
« Souvent on a cette représentation de la technologie comme neutre et objective. Il y a donc un vrai besoin de déconstruire la façon dont la technologie est conçue et déployée pour justement garder en tête cette perspective de justice sociale, et le fait que la technologie peut renforcer les inégalités.«

Qu’entendez-vous par justice sociale ?
La justice sociale, pour moi, c’est une question d’équilibre au sein de la société. C’est à dire essayer de voir comment est ce que des voix qui ne sont pas entendues pourraient être entendues. Donc en fait, la justice sociale, pour moi, c’est une question d’équilibre. Dans les sociétés, qu’elles soient occidentales ou non occidentales, il y a toujours des rapports d’inéquité, il y a toujours des rapports de pouvoir qui font que des groupes sont plus ou moins en marge de la société. Pour moi, travailler pour la justice sociale notamment, et faire des recherches dans une perspective de justice sociale, c’est regarder les phénomènes, ce qu’on utilise à partir d’une perspective de rapports de pouvoir, et comment rééquilibrer ces rapports de pouvoir et ces inéquités.
J’ai d’ailleurs écrit plusieurs articles dessus, notamment celui-ci : La justice sociale : l’angle mort de l’Intelligence Artificielle.
Comment peut-on mêler sociologie et intelligence artificielle ?
Pour ce faire, je pense qu’il y a deux éléments nécessaires. Premièrement, quand vous formez des développeurs ou des personnes qui visent à travailler dans l’IA, il est nécessaire de les former en complément sur les enjeux sociaux. On remarque très souvent qu’ils ne sont pas capables de voir ce qu’il y a au-delà des données. Un exemple que j’utilise tout le temps, c’est le fait que lorsqu’on arrive aux urgences dans certains hôpitaux en Amérique du Nord, il y a un outil de triage pour savoir qui est prioritaire et qui ne l’est pas. Pour déterminer le niveau de santé, ils prennent les dépenses déjà faites en santé, considérant que plus elles sont importantes, plus l’état de santé est alarmant et à contrario, ceux qui n’ont pas beaucoup consulté sont en réalité en très bonne forme (et par corrélation ne sont pas prioritaires). Pourtant, en ajoutant une couche socio-économique, on comprend que ceux qui dépensent le plus ne sont pas nécessairement les plus malades mais les plus stables financièrement, avec un métier stable, un employeur et une assurance maladie viable. En contrepartie, on remarque aussi que généralement, ceux ayant moins dépensé sont ceux qui ne peuvent pas se permettre d’avoir une assurance maladie complémentaire, ce sont ceux qui travaillent en « freelance » ou qui n’ont pas d’emplois stables, et donc ceux qui ne sont pas en capacité de dépenser beaucoup dans des frais médicaux. En comprenant cet aspect social, on remarque bien qu’il n’y a pas de corrélation entre l’état d’urgence et les frais déjà versé, ou à la rigueur elle est à inverser : si les personnes n’ayant pas beaucoup payé de frais hospitaliers se retrouvent aux urgences, c’est bien que leur état est grave et donc prioritaire. Des petites formations pourraient justement permettre de comprendre ces aspects socio-économiques. Un autre élément pour justement mêler sociologie et Intelligence Artificielle, c’est de renforcer les cours d’éthique en lien avec les biais et les incidences sociétales. Qu’est ce que ça veut dire ?
« L’intelligence artificielle, elle est aussi appliquée à des personnes humaines, et il est important de ne pas y incorporer les stéréotypes sociétaux, ce qui divise finalement encore plus les populations. »
Un autre élément, je pense, c’est qu’il faut éduquer les décideurs publics sur ce qu’est l’intelligence artificielle et ce que cela implique au niveau sociétal. Ils ont encore cette idée que l’Intelligence c’est beau, pas cher et qu’il n’y a pas de problème, alors que fondamentalement, il y a des problèmes sociaux à pallier.
Est-ce que vous auriez un exemple de projet sur lequel vous travaillez qui est en lien avec l’IA ou ses impacts sociétaux ?
Pour vous parler d’un projet concret, nous avons une animation sur laquelle nous travaillons et qui va bientôt sortir pour montrer comment est ce que certains groupes marginalisés utilisent l’IA. Ce notamment pour répondre à leurs besoins via des applications sur leur téléphone, et pour par exemple les aider soit à comprendre leurs droits en fonction d’une situation qu’ils peuvent vivre, soit à partager de l’information, soit à monter des bases de données. Avant cela, j’ai travaillé sur un projet de recherche à présent terminé avec des communautés dans le nord du Québec. A l’instant où je vous en parle, c’est plus du numérique que de l’Intelligence Artificielle, qui sera développée après. Cela a consisté à développer une plateforme où ces populations peuvent prendre des photos de leurs territoires pour documenter les impacts des coupes forestières et des changements climatiques dessus. En effet, ils prennent des milliers de photos chaque jour avec des drones, et à l’aide de l’Intelligence Artificielle, pourront les classifier et faire ressortir les informations et les observations importantes. Sinon, dans le nord du Québec, j’ai travaillé avec un groupe, utilisant des systèmes à distance pour faciliter l’accès à la justice et mettre en place des applications pour payer leurs amendes à distance avec des langages autochtones. Cela reste certes des projets à échelle locale et non pas à l’échelle de l’État, mais ils restent tout de même nécessaires pour les populations autochtones.
Dans l’usage de l’IA, avez vous remarqué des progrès par rapport à avant pendant vos recherches ?
Non, je n’ai pas vu de progrès, malheureusement, mais cela ne fait “seulement” 5-6 ans que j’y travaille. Du côté des États et des décideurs, je trouve que ça avance, mais ça avance lentement. Ce que je vois par contre, c’est chez les développeurs, les gens qui travaillent en IA ; il y a quand même une petite prise de conscience. J’ai souvent l’impression que c’est un truc générationnel parce que chez les plus jeunes, il y a cette conscience-là que les biais, par exemple, ne se trouvent pas seulement au niveau technique, qu’il y a quelque chose qui ne va pas. J’ai pu voir beaucoup de réflexion de la part des jeunes sur les données, sur un niveau plus interne. J’ai lu pas mal d’études aussi des développeurs, dans lesquelles ils évoquent un vrai besoin de régulations plus fortes parce que parfois “on nous demande de faire des choses dont on sait que c’est pas correct”. Donc il y a tout de même une ouverture, mais du côté des structures et des institutions il n’y a pas encore tant de mouvement. Il y a toujours de la part du grand public une méconnaissance, une représentation qui est erronée.
Mais au niveau de la population en général, les gens ont quand même une conscience. Certaines actions qui sont posées, c’est quand même encore un peu minoritaire, c’est à dire que c’est pas tout le monde, mais il y a une prise de conscience, une volonté de se renseigner. Par exemple, lorsque j’étais professeure invitée à l’Ecole Normale Supérieure à Paris, j’ai été invitée par une organisation internationale de personnes âgées, qui fait des congrès sur l’IA et l’impact de l’IA sur leur vie quotidienne.
Concernant les rapports de pouvoir et les inégalités sociales, dans quelle mesure sont-ils perçus au sein de l’IA et du numérique en général ?
Je pense qu’ils sont bien connus, notamment au niveau de l’industrie. Les décideurs les connaissent aussi un peu parce qu’ils les voient dans d’autres contextes. Après, les connaître est une chose qui ne suffit pas. Je discutais avec quelqu’un qui avait développé un outil le plus éthique possible pour une population précise. En fait, il l’a développé pour une firme et cette dernière l’a utilisé pour une autre utilisation que ce qui avait été prévu. Cela, c’est un problème de gouvernance et de reddition de comptes. Donc certes les inégalités sont perçues mais pas toujours traitées, et je considère qu’il faut aussi contraindre et surtout punir si elles sont ignorées. Donc je dirai que les inégalités sociales sont bien connues et sont abordées mais ce n’est pas pour autant qu’elles sont traitées, il faut aller au-delà que simplement les “percevoir”.

Selon vous surtout, quels sont les dangers que l’IA peut représenter au niveau sociétal ?
Les dangers, je pense qu’il y en a plusieurs, mais celui qui peut-être inquiétant est que l’Intelligence Artificielle peut pousser à la marge. Depuis les 30 dernières années, il y a une disparition de la classe moyenne : il y a des très riches et des très pauvres. Ce que je crains, c’est qu’on ait des gens qui soient très intégrés et des gens qui soient très à la marge, mais tellement à la marge, qu’ils ne participent plus à la société. Je pense que c’est aussi un problème sur tout ce qui est droits fondamentaux. Ce n’est pas juste vu avec la liberté d’expression, mais en plus tout ce qui est droit à l’éducation. Toute technologie, quand elle a été implantée dans une société, la modifie, on l’a vu par exemple avec la révolution industrielle, ça a modifié les sociétés, la façon de travail, le rôle de l’homme en société. Je pense que l’Intelligence Artificielle n’est pas à mettre à part : oui, il faut l’étudier et être bien conscient de comment elle peut venir à modifier la société.
En tant que femme travaillant dans le secteur de l’Intelligence Artificielle, avez vous été confrontée à des inégalités, des stéréotypes et des traitements différents ? Comment, en tant que femme, avez-vous perçu cette expérience ?
Pendant très longtemps, j’ai travaillé dans les revendications territoriales et politiques avec des groupes autochtones, donc j’étais à des tables de négociation, un milieu très masculin. Mais honnêtement, quand je suis arrivée dans le milieu de l’intelligence artificielle, je n’ai pas trouvé ça facile. Quand on est une femme et qu’on parle d’enjeux de justice sociale, de toute façon, on dit n’importe quoi, on se fait couper la parole. Par ailleurs, on se fait souvent juger beaucoup plus jeune que ce qu’on est. C’est pour ça que je me présente toujours en tant que professeure agrégée. Puis entre collègues femmes, on va s’appeler professeures entre nous, c’est une façon de mettre un cadre. Souvent, lors de réunions, par exemple, ils s’adressent à un homme comme « monsieur le professeur », et puis ils s’adressent aux femmes par leur prénom.
Mais oui, c’est difficile quand on est une femme et quand on arrive avec des sujets qui sont un peu à contre courant. L’autre élément aussi que j’ai trouvé qui était difficile, c’est que des fois j’ai assisté à des conférences où je sais que j’avais été invitée parce que j’étais « token », il fallait une femme sur le panel. Aujourd’hui, j’essaie de ne plus en faire. Mais au moins ce qui est bien, c’est que dans ce milieu là, on se serre un peu les coudes entre femme et on essaye justement de mettre en avant certaines perspectives.
Pour les femmes qui sont issues de minorités, c’est d’autant plus difficile. On leur dit qu’elles arrivent avec des sujets qui ne sont pas crédibles, parfois même qu’elles mêmes ne le sont pas. C’est souvent ça : on est une jeune femme, on ne sait pas de quoi on parle. Si vous continuez là-dedans, vous vous l’entendrez sûrement dire, mais quoiqu’il en soit, il faut continuer.
En tant qu’étudiant, que nous conseilleriez vous de faire à notre échelle ?
Intéressez vous aux phénomènes sociaux, regardez au-delà de la technique : soyez conscients que la technique est la couche supérieure de ce qu’est la société, en bien et en mal. Recherchez quels problèmes nécessitent vraiment une Intelligence Artificielle pour être résolus, cherchez les problèmes où l’IA est une plue-value pour la résolution.
Un mot à faire passer aux étudiants de cette double licence ?
Continuez, mais surtout, ayez une pensée critique. Lisez, renseignez vous sur les réseaux sociaux, gardez l’esprit ouvert et restez à l’affût. Interrogez les personnes autour de vous, qu’elles connaissent bien l’Intelligence Artificielle ou non. Mais continuez quoiqu’il en coûte !
Propos recueillis par Sofiya ONDRIASH et Lilly-Lou MEGNAN