Le ministère de la Justice des États-Unis (DoJ) renforce les exigences de conformité pour les entreprises utilisant l’intelligence artificielle (IA). Désormais, les responsables de conformité doivent évaluer le risque potentiel de l’IA et s’assurer qu’elle ne viole pas la loi. Si l’IA cause un crime, l’entreprise en sera responsable et des sanctions sévères pourraient être appliquées.
Le coût élevé de l’IA et son retour sur investissement incertain représentent déjà des défis pour les entreprises. Cependant, le DoJ vient ajouter un nouvel élément à cette équation complexe. Les entreprises doivent désormais s’assurer que leur utilisation de l’IA respecte les lois pénales. Nicole Argentieri, procureure générale adjointe, a présenté ces nouvelles exigences lors d’un discours récent devant la Society of Corporate Compliance and Ethics.
Le programme ECCP
Le programme d’évaluation de la conformité des entreprises (ECCP) définit les normes que les procureurs du DoJ utilisent pour évaluer les entreprises lors d’enquêtes criminelles. Initialement conçu pour les pratiques commerciales classiques, ce programme inclut désormais l’utilisation de l’IA. Les responsables de conformité doivent donc évaluer le potentiel de nuisance de cette technologie, sous peine de lourdes amendes en cas de non-respect.
Les nouvelles directives du DoJ incluent une série de questions que les entreprises doivent se poser concernant leur utilisation de l’IA. Par exemple, comment l’entreprise évalue-t-elle l’impact des nouvelles technologies sur sa capacité à se conformer aux lois pénales ? Comment limite-t-elle les conséquences négatives imprévues de l’IA dans ses opérations commerciales ? Enfin, comment atténue-t-elle le risque d’une utilisation abusive de ces technologies ?
Le DoJ exige des entreprises qu’elles surveillent et testent activement leurs applications d’IA. Il ne suffit pas d’implémenter la technologie ; il faut s’assurer qu’elle fonctionne comme prévu. Les entreprises doivent éviter que l’IA génère des faux documents ou facilite des fraudes. Si des failles sont découvertes, elles doivent les corriger rapidement pour éviter des poursuites judiciaires.
Les dirigeants face à leur responsabilité
Les entreprises seront tenues responsables des crimes commis par leur IA. Ainsi, les dirigeants doivent anticiper et gérer ces risques dès maintenant. Le DoJ souhaite que les entreprises révisent et mettent à jour leurs programmes de conformité de manière continue. Cela inclut l’évaluation régulière des nouveaux défis liés aux technologies émergentes, comme l’intelligence artificielle.
Les mises à jour du programme ECCP incluent également des recommandations pour les lanceurs d’alerte. Le DoJ encourage les employés à signaler les comportements illégaux. Un programme de soutien est mis en place pour protéger et récompenser ceux qui osent parler.
Ces nouvelles exigences du DoJ montrent l’importance croissante de la régulation des technologies. Les entreprises doivent prendre conscience des risques liés à l’IA et intégrer ces nouvelles règles dans leurs pratiques. La vigilance est de rigueur pour éviter les sanctions. Désormais, conformité et IA doivent aller de pair pour assurer une utilisation éthique et légale de cette technologie.
- Partager l'article :