Le gouvernement de l’Ontario exhorté à élaborer une politique en matière d’IA

TORONTO — L’Ontario devrait mettre en place des «garde-fous efficaces» sur l’utilisation des technologies d’intelligence artificielle par le secteur public, ont fait valoir jeudi la Commissaire à l’information et à la protection de la vie privée de la province ainsi que la Commission ontarienne des droits de la personne.

Le gouvernement doit élaborer de toute urgence des règles «robustes» afin de pouvoir tirer parti des technologies de l’IA de manière éthiquement responsable, ont déclaré les deux organismes dans le communiqué.

«Les technologies d’IA ont un grand potentiel pour bénéficier à la société en termes d’amélioration de la santé, de l’éducation, de la sécurité publique et de la prospérité sociale et économique», ont-ils écrit.

«Cependant, il a également été démontré qu’ils ne sont pas sûrs lorsqu’ils ne sont pas efficacement gouvernés.»

Un porte-parole du ministère des Services au public et aux entreprises a indiqué que le gouvernement était en train d’élaborer un cadre d’IA fiable «qui garantira une utilisation transparente et responsable de l’IA» dans l’ensemble du secteur public.

Ce cadre indique que le gouvernement s’engage à toujours être transparent, à divulguer quand, pourquoi et comment les algorithmes d’IA sont utilisés, à suivre les règles pour appliquer ces algorithmes en toute sécurité et à protéger les droits des Ontariens.

La commission des droits de la personne et la commissaire à la protection de la vie privée saluent les fondements proposés dans ce cadre de 2021, mais il est «urgent que le gouvernement établisse un ensemble contraignant de règles solides et granulaires pour l’utilisation des technologies d’IA par le secteur public».

Les deux organismes affirment que les technologies d’intelligence artificielle ont un grand potentiel pour bénéficier à la société, mais qu’elles peuvent être dangereuses lorsqu’elles ne sont pas correctement gérées et peuvent collecter illégalement des informations personnelles.

Même avec des informations anonymisées, les technologies d’IA peuvent perpétuer des biais et entraîner des effets négatifs sur les personnes ou les groupes marginalisés, écrivent-ils dans la déclaration.

De plus, ils soutiennent que certains systèmes d’IA peuvent créer un contenu défectueux ou inexact, ce qui soulève des inquiétudes quant à la responsabilité.