AI Act : l’UE révolutionne la loi sur l’IA

Shazam

IA
parlement européen et ai act

L'UE sur le point d'adopter une loi historique sur l'IA

Après avoir été proposée en 2021, fait l'objet de vifs débats et de pressions présumées de la part des grandes entreprises de l'IA, le Parlement européen a finalement approuvé à la majorité l'Artificial Intelligence Act (AI Act), un texte législatif historique sur l'intelligence artificielle. Cette loi emploie un cadre basé sur les risques, classant les systèmes d'IA en quatre niveaux de risque : inacceptable, élevé, limité et minimal. Les systèmes à haut risque devront se conformer aux exigences les plus strictes, telles que l'atténuation des risques, des ensembles de données de haute qualité et une surveillance humaine dans des domaines comme l'emploi, le crédit et la santé.

Parmi les points clés de l'AI Act, les entreprises sont désormais tenues d'informer les personnes lorsqu'elles interagissent avec des systèmes d'IA, notamment des chatbots et des systèmes de catégorisation biométrique, et d'imposer l'étiquetage des “deepfakes”. La loi interdit certaines utilisations de l'IA, comme l'identification biométrique en temps réel dans les espaces publics, les systèmes de reconnaissance des émotions dans les forces de l'ordre et les établissements d'enseignement, ainsi que le grattage indiscriminé de données biométriques.

Un nouveau bureau européen de l'IA sera créé pour coordonner la conformité, la mise en œuvre et l'application de la loi. Il est important de noter que l'AI Act ne s'applique pas aux systèmes d'IA développés exclusivement à des fins militaires et de défense, se concentrant plutôt sur les applications civiles. Les entreprises s'exposent à des amendes allant de 1,5 % à 7 % du chiffre d'affaires des ventes mondiales en cas de non-conformité, en fonction de la gravité de l'infraction et de la taille de l'entreprise.

Un cadre basé sur les risques pour réglementer l'IA

L'AI Act adopte une approche nuancée de la réglementation de l'IA, reconnaissant que tous les systèmes d'IA ne présentent pas le même niveau de risque pour la société. En classant les systèmes en quatre catégories de risque, la loi permet une réglementation ciblée, les systèmes à haut risque étant soumis aux exigences les plus strictes. Cette approche vise à protéger les citoyens des dommages potentiels liés à l'IA tout en permettant l'innovation et le développement de systèmes d'IA bénéfiques.

Pour les systèmes d'IA à haut risque dans des domaines sensibles comme l'emploi, le crédit et la santé, l'AI Act exige des mesures d'atténuation des risques, l'utilisation de données de haute qualité pour l'entraînement des modèles et une surveillance humaine. Ces mesures visent à garantir que les décisions prises par ces systèmes sont équitables, transparentes et responsables, réduisant ainsi le risque de discrimination ou de préjudice pour les individus.

Transparence et protection des consommateurs

Un aspect clé de l'AI Act est l'obligation pour les entreprises d'informer les consommateurs lorsqu'ils interagissent avec des systèmes d'IA, tels que les chatbots et les systèmes de catégorisation biométrique. Cette mesure vise à promouvoir la transparence et à permettre aux individus de prendre des décisions éclairées quant à leur engagement avec ces technologies. De plus, la loi exige l'étiquetage des “deepfakes”, afin de lutter contre la désinformation et la manipulation de l'opinion publique.

L'AI Act interdit également certaines utilisations préoccupantes de l'IA, telles que l'identification biométrique en temps réel dans les espaces publics et les systèmes de reconnaissance des émotions dans les contextes d'application de la loi et d'éducation. Ces interdictions reflètent les inquiétudes concernant les atteintes potentielles à la vie privée et aux droits civils que ces technologies pourraient entraîner si elles étaient utilisées de manière abusive ou sans garde-fous appropriés.

Mise en œuvre et application de la loi

Pour assurer une mise en œuvre efficace de l'AI Act, un nouveau bureau européen de l'IA sera créé. Ce bureau sera chargé de coordonner la conformité, la mise en œuvre et l'application de la loi dans l'ensemble de l'UE. Cette approche centralisée vise à garantir une interprétation et une application cohérentes de la loi, ainsi qu'à fournir un soutien aux entreprises et aux organisations qui cherchent à se conformer à ses exigences.

Il est important de noter que l'AI Act se concentre sur les applications civiles de l'IA et ne s'applique pas aux systèmes développés exclusivement à des fins militaires et de défense. Cette exclusion reflète les différences entre les contextes civils et militaires et la nécessité d'approches réglementaires distinctes pour chacun d'eux.

Enfin, l'AI Act prévoit des sanctions significatives pour les entreprises qui ne se conforment pas à ses exigences. Les amendes peuvent atteindre 7 % du chiffre d'affaires mondial, en fonction de la gravité de l'infraction et de la taille de l'entreprise. Ces sanctions visent à inciter les entreprises à prendre au sérieux leurs obligations en matière d'IA responsable et à inverser la tendance à l'adoption irréfléchie de ces technologies puissantes.

Un pas en avant vers une IA digne de confiance

L'adoption de l'AI Act par le Parlement européen marque une étape importante dans la réglementation de l'IA. En établissant des règles claires et un cadre basé sur les risques, l'UE ouvre la voie à une approche plus responsable et éthique du développement et du déploiement de l'IA. Bien que la loi ne soit pas parfaite et que certains détails restent à finaliser, elle représente un pas significatif vers la création d'une IA digne de confiance qui profite à la société tout en protégeant les droits et les intérêts des citoyens.

À mesure que l'IA continue d'évoluer et de s'intégrer dans tous les aspects de notre vie, il est crucial que les législateurs restent vigilants et adaptent la réglementation aux nouvelles réalités technologiques. L'AI Act fournit une base solide sur laquelle s'appuyer, mais un engagement continu envers la réflexion éthique, la recherche et le dialogue sera nécessaire pour façonner un avenir de l'IA qui soit à la fois innovant et centré sur l'humain.

suivez nous sur google publisher