Points clés de la première législation mondiale régulant l'intelligence artificielle
Dans notre article précédent, nous vous avons présenté la loi de l'Union européenne (UE) sur l'intelligence artificielle (IA), la première au monde à réguler cette technologie, qui établit une classification des systèmes basée sur le niveau de risque qu'ils peuvent représenter pour les droits et libertés des citoyens. Cette classification est cruciale pour déterminer les obligations que les développeurs et utilisateurs d'IA doivent respecter. Donc, si la manière dont le règlement catégorise le risque est si importante, voulez-vous que nous l'explorions plus en détail ?
Quels niveaux de risque la loi établit-elle ?
1. Risque inacceptable : Les systèmes d'IA considérés comme présentant un risque inacceptable sont interdits car ils représentent une menace claire pour les droits fondamentaux. Ceux-ci incluent des technologies telles que la surveillance de masse sans contrôle judiciaire ou l'utilisation de techniques de manipulation subliminale pouvant causer des dommages physiques ou psychologiques.
Exemple : Un système de reconnaissance faciale utilisé pour surveiller en continu les activités des citoyens dans les espaces publics sans leur consentement explicite et sans autorisation légale appropriée.
2. Risque élevé : Les systèmes d'IA à haut risque ont le potentiel d'affecter gravement les droits et libertés individuels, c'est pourquoi ils doivent se conformer à des exigences strictes en matière de transparence, de sécurité et de supervision. Ces systèmes sont utilisés dans des secteurs critiques comme la santé, l'éducation, la sécurité ou le système judiciaire.
Exemple : Les algorithmes utilisés pour évaluer les demandes de prêt bancaire ou les évaluations du risque de récidive dans le système judiciaire. Ces systèmes doivent faire l'objet d'évaluations indépendantes pour s'assurer qu'ils ne sont pas discriminatoires et qu'ils fonctionnent correctement.
3. Risque limité : Les systèmes à risque limité ont un potentiel moindre de causer des dommages, mais nécessitent tout de même une certaine supervision et des mesures de transparence. Ils doivent fournir aux utilisateurs des informations claires sur leur nature et leur fonction, ainsi qu'assurer que les résultats soient compréhensibles et vérifiables.
Exemple : Applications d'IA utilisées dans le service client pour fournir des réponses automatiques aux questions fréquemment posées. Bien qu'elles ne prennent pas de décisions critiques, elles doivent informer clairement les utilisateurs lorsqu'ils interagissent avec une IA.
4. Risque minimal ou négligeable : Les systèmes d'IA qui présentent un risque minimal ou négligeable sont soumis à moins d'exigences réglementaires, car leur utilisation ne représente pas une menace significative pour les droits et libertés des individus. Ces systèmes sont souvent soumis aux réglementations générales en matière de sécurité et de confidentialité.
Exemple : Algorithmes de recommandation sur les plateformes de streaming de musique ou de vidéo, qui suggèrent du contenu basé sur les préférences des utilisateurs. Bien qu'ils soient importants pour l'expérience utilisateur, ils ne représentent pas un risque pour leurs droits fondamentaux.
Bien que les lois en vigueur jusqu'à présent aient offert un certain degré de protection, elles étaient insuffisantes pour relever les défis à venir, et cette fois l'UE a pris des mesures pour éviter que la réglementation ne soit à cent pas derrière la technologie. Ainsi, la loi sur l'IA garantit que les citoyens européens peuvent avoir confiance en tout ce que l'IA peut nous offrir. Bien que la majorité des systèmes d'IA présentent un risque limité ou nul, certains comportent des dangers pouvant entraîner des résultats indésirables. C'est précisément ce que la réglementation veut éviter.
Nous vous invitons à lire le texte complet pour connaître tous les détails.
Et maintenant ?
Nous savons tous que le premier règlement mondial régissant l'IA est en vigueur depuis le 1er août et qu'il sera appliqué progressivement au cours des deux prochaines années. Mais qu'est-ce que cela signifie ? Passons en revue !
Les États membres de l'UE ont un an (jusqu'au 2 août 2025) pour désigner les autorités nationales compétentes qui superviseront l'application du règlement. Au niveau européen, le Bureau de l'IA de la Commission sera l'organisme principal chargé de l'application de la loi sur l'IA, ainsi que l'autorité responsable de l'application des règles relatives aux modèles d'IA d'usage général. Par ailleurs, il y aura d'autres organes consultatifs pour l'assister.
Pour faciliter la période transitoire avant sa pleine application d'ici deux ans, la Commission a lancé le Pacte sur l'IA, qui invite les développeurs d'IA à adopter volontairement les obligations clés de la loi sur l'IA avant les délais légaux. Pensez-vous qu'ils feront le pas ?
Pour plus d'informations sur la réglementation, nous vous recommandons les lectures suivantes :
- Article sur le portail 324.cat concernant l'entrée en vigueur de la loi
- Article sur le portail TreceBits