L’Europe s’engage pour une intelligence artificielle digne de confiance

Grande première mondiale, le Parlement européen a adopté le tout premier cadre juridique en matière d’intelligence artificielle. Cette loi sur l’IA inédite exprime les ambitions européennes: trouver un équilibre entre innovation et protection des droits fondamentaux des individus.

Elle est partout, des diners de famille aux plus importantes réunions d’entreprise, en passant par les hémicycles ou les murs LinkedIn. Elle, c’est l’intelligence artificielle. Alors qu’OpenAI vient de dévoiler un robot troublant d’humanité et annonce la version 5 de ChatGPT, les initiatives et projets poussent comme des champignons, plus ou moins secrets. Or, en matière d’IA, les enthousiastes font face aux prudents; la fascination opposée aux inquiétudes. Progrès ou danger, ce face-à-face prend une autre ampleur avec l’IA, tant elle tisse sa toile dans les interstices de notre société, redessine le paysage entrepreneurial et pourrait même redéfinir notre place d’humain. Des motifs qui ont poussé l’Europe à réguler cette technologie.

AI Act, une loi inédite

Début mars 2024, après cinq ans de gestation, le Parlement européen posait les balises de la première législation au monde en matière d’IA, inspirée par de réglementations comme le RGPD. L’ambition annoncée? Permettre l’émergence d’une IA digne de confiance, éthique et responsable, assurant un équilibre entre innovation et protection des droits fondamentaux des individus. Pour l’UE, l’enjeu est double: établir des garde-fous pour empêcher le développement incontrôlé de l’IA, tout en créant un environnement favorable aux investissements dans ce secteur. Raison pour laquelle l’AI Act européen est assorti d’un train de mesures sur l’innovation et d’un plan coordonné. Malgré tout, ce n’est pas une mince affaire, quand on connaît le retard important déjà accumulé par le Vieux continent par rapport aux États-Unis ou à la Chine. D’autant plus qu’Américains et Chinois ne semblent pas vouloir légiférer, laissant libre cours aux avancées technologiques.

La régulation, un mal nécessaire?

L’intelligence artificielle n’est pas sans risques: préoccupations éthiques, menaces pour la vie privée, biais algorithmiques, etc. ChatGPT, par exemple, a vécu une adoption fulgurante, notamment dans la sphère professionnelle. Mais qui connaît vraiment les entrailles de l’algorithme? Comment est-il alimenté? Comment contrôler les biais susceptibles de favoriser certaines catégories de personnes, de produire des décisions automatisées non transparentes, etc.? Des questions clés, auxquelles la réglementation européenne tente de répondre. L’objectif sous-jacent est d’éviter les dérives; de stimuler la création d’algorithmes en conformité avec les lois et réglementations en vigueur; et de pousser les développeurs à concevoir et à déployer une IA centrée sur l’humain, responsable et dans l’intérêt général. Concrètement, en quoi consiste ce cadre juridique européen pour IA digne de confiance?

Approche fondée sur les risques

La logique du texte européen? Plus les risques du système IA sont élevés, plus les règles sont strictes. Le cadre réglementaire définit ainsi quatre niveaux de risque: inacceptable, élevé, limité et minimal. Concrètement, les pratiques «inacceptables», tels que la menace pour la sécurité, les moyens de subsistance ou les droits des personnes, sont tout simplement interdites. Cela concerne, par exemple, la notation sociale par les gouvernements, les jouets avec assistance vocale, la création de bases de données de reconnaissance faciale, etc. Côté «risque élevé», c’est-à-dire les modèles puissants susceptibles d’avoir des impacts systémiques, entre autres dans le domaine de la santé, de la sécurité ou des droits fondamentaux, les développeurs seront soumis à des exigences très strictes de rapportage et de contrôle.

Quel impact pour les entreprises?

L’AI Act ne sera applicable que deux ans après son entrée en vigueur (trois ans pour les systèmes IA à risque élevé). Mais l’UE invite les entreprises à s’inscrire dans une démarche d’anticipation volontaire… Elles vont donc devoir réaliser une évaluation rigoureuse des risques, mais aussi assurer la conformité et une plus grande transparence sur leurs usages d’IA; et garantir ainsi la traçabilité des décisions prises par les systèmes automatisés. Par exemple, dans le cadre de leurs procédures de recrutement. En contrepartie, outre le fait d’éviter les amendes et litiges, elles pourront tirer parti d’un cadre de confiance renforcé pour innover et se développer. Celles qui sauront naviguer dans ce nouvel environnement réglementaire pourront bénéficier d’un avantage concurrentiel significatif.

Share This Post

LinkedIn

Suivez les mises à jour fiscales et IP Box grâce à MoneyOak.

Articles liés