Photo by Brandon Day on Unsplash

Les États-Unis envisagent de réglementer l’usage de l’intelligence artificielle

Le législateur américain envisage actuellement d’adopter une nouvelle loi, l’Algorithmic Accountability Act, qui régirait l’usage de l’intelligence artificielle (l’«IA») par les entreprises aux fins d’utilisation, de stockage ou de divulgation de renseignements personnels.

La loi en question, si elle est éventuellement adoptée, exigerait que la Federal Trade Commission (la «FTC») surveille les sociétés qui font affaire aux États-Unis et qui utilisent l’IA relativement à leur manipulation des renseignements personnels par l’entremise de systèmes décisionnels automatisés (des «automated decision systems») reposant sur des concepts comme l’apprentissage automatique. Le but ici serait autant de s’assurer que l’IA qu’utilisent les grandes entreprises s’avère éthique que de s’assurer que les données qu’elle manipule soient traitées de façon suffisamment sécuritaire.

Cette loi viendrait éventuellement obliger les entreprises visées à faire évaluer (par des tiers spécialisés) officiellement leurs systèmes de ce type («data protection impact assessments») pour déterminer dans quelle mesure les systèmes en question protègent adéquatement (ou non) les renseignements personnels, en plus de la manière dont ils ont été conçus et entraînés, dans le but d’en valider la précision et de repérer les préjugés qu’on y aurait imbriqués. Une partie de cette loi vise donc à tenter d’enrayer (ou de minimiser) les préjugés qui se manifestent quasi invariablement dès qu’on crée un système décisionnel basé sur l’apprentissage automatique. En fait, la loi exigerait ce genre d’évaluation particulièrement quant aux systèmes de ce type qu’on estime être à haut risque selon des critères qu’énumère la loi. De plus, dans le libellé du projet de loi, on peut voir que la loi en question s’appliquerait surtout aux entreprises américaines de bonne taille, avec par exemple 50 millions de dollars ou plus en revenus annuels ou manipulant les données de plus d’un million d’usagers ou d’appareils, etc.

Cette loi s’apparente à d’autres lois du même genre proposées récemment en Australie, en France et en Angleterre, alors que le monde industrialisé commence à constater les problèmes qui peuvent accompagner l’adoption de l’IA à grande échelle par le monde des affaires.