Le ministère de l’Immigration, des Réfugiés et de la Citoyenneté du Canada (IRCC) a récemment dévoilé une stratégie novatrice concernant l’intelligence artificielle (IA).
Cette stratégie propose des principes directeurs, établit des objectifs et crée un cadre pour le classement des utilisations de l’IA.
Entre autres ambitions, l’IRCC souhaite mettre en œuvre l’IA de manière :
- Axée sur l’humain et responsable ;
- Claire et explicable ;
- Juste et équitable ;
- Respectueuse de la sécurité et de la vie privée ;
- Valide et fiable.
Parmi les résultats escomptés, on trouve la réduction des délais de traitement des demandes et l’amélioration des moyens de lutte contre la fraude, notamment par l’utilisation de techniques de vision par ordinateur pour détecter les activités frauduleuses en temps réel.
La stratégie définit également un cadre pour identifier les différents cas d’utilisation de l’IA, répartis en trois catégories : « quotidienne », « programme » et « expérimental ».
L’utilisation « quotidienne » de l’IA concerne des tâches administratives qui ne prennent pas part au processus décisionnel, telles que la synthèse de documents, la tri des demandes ou encore la réponse aux questions des clients.
La catégorie « programme » désigne l’utilisation de l’IA pour éclairer les opérations des programmes, englobant des activités comme l’analyse de données et la fourniture d’analyses et de recommandations aux décideurs. Par exemple, elle peut aider à identifier rapidement des dossiers simples à faible risque pour une décision accélérée par un agent.
IRCC précise que les décisions de refus resteront toujours entre les mains des agents humains, affirmant que « les outils n’effectuent pas de refus ni ne recommandent de refus de demandes ».
Les cas d’utilisation « expérimentaux » comprennent des analyses avancées pour éclairer la prise de décision dans les programmes, comme la modélisation des flux d’immigration et l’évaluation de leurs impacts sur l’économie canadienne.
Enfin, le ministère souligne que ces cas d’expérimentation ne visent pas à instaurer une IA totalement autonome. Les systèmes d’IA resteront toujours sous supervision pour garantir leur fonctionnement conforme aux cadres, directives et lois en vigueur.
FAQ
1. Comment l’IRCC prévoit-il d’assurer la transparence de l’IA dans ses opérations ?
L’IRCC s’engage à faire en sorte que toutes les décisions prises à l’aide d’IA soient claires et compréhensibles. Cela implique de fournir des explications sur la manière dont les données sont utilisées et interprétées dans le processus décisionnel, renforçant ainsi la confiance des citoyens dans l’administration de l’immigration.
2. Quels types de données l’IRCC utilisera-t-il pour ses analyses d’IA ?
L’IRCC va probablement utiliser divers types de données, y compris les informations d’application, les historiques de demande, et d’autres données démographiques. Ces données permettront de classifier les demandes, d’identifier les tendances et de rationaliser le processus décisionnel tout en respectant les lois sur la protection de la vie privée.
3. Quelles mesures IRCC mettra-t-il en place pour garantir l’équité dans l’utilisation de l’IA ?
Pour garantir l’équité, l’IRCC prévoit de tester régulièrement ses algorithmes pour détecter d’éventuels biais. De plus, des audits indépendants pourraient être réalisés pour évaluer l’impact des technologies d’IA sur les différentes populations, assurant ainsi que les décisions ne discriminent pas certains groupes.
