L’Intelligence Artificielle avec les risques sur l’utilisation

Les quatre catégories des risques sur l’utilisation de l’Intelligence Artificielle :

Le risque inacceptable :
D’une manière générale, ce sont les systèmes d’Intelligence Artificielle qui créent une menace pour les personnes. Ils sont, notamment, strictement interdits lorsqu’ils portent sur :

1 – La notation sociale
( classement de personnes ou de groupes de personnes selon leur situation socio-économique, de leur comportement, de leurs valeurs, de leurs pensées. )
2 – L’exploitation de la vulnérabilité des personnes
( c’est le cas pour des enfants ou des personnes fragiles pour influencer leur comportement et qu’il leur devienne nuisible )
3 – L’identification biométrique à distance en temps réel dans des espaces publics.
( elle peut être recevable dans certains cas exceptionnels pour des enquêtes sur des infractions graves )
4 – Les pratiques tendant à la manipulation pour tromper les utilisateurs à leur insu

Le risque élevé :
Ce sont les systèmes ayant un impact significatif sur :

La sécurité
La santé
L’atteinte aux Droits fondamentaux

Des exigences très strictes sont imposées lorsque l’utilisation est effectuée dans la biométrie, l’éducation ou l’accès à l’emploi.

Les systèmes doivent être impérativement testés antérieurement à leur mise sur le marché et constamment surveillés tout le long de leur utilisation.

La supervision humaine doit être mise en place pour prévenir de tous risques que des décisions importantes ne soient prises que par des machines.  

D’une manière générale ce sont les systèmes qui créent des profils et traitent automatiquement des données personnelles pour évaluer la vie d’une personne ( performances professionnelles, situation économique, préférences, localisation, etc…)
Ils sont considérés à haut risque et sont, en conséquence, visés par cette classification.

Sont concernés :

Les systèmes d’Intelligence Artificielle impliqués dans le fonctionnement d’infrastructures critiques où la sécurité des citoyens est en jeu.
( les transports, l’approvisionnement en eau, en gaz, en électricité. )
Dans les services privés et publics
( évaluation des appels d’urgence, le triage des patients urgents, l’évaluation de la solvabilité )
La formation professionnelle et l’éducation
(affectation dans les Établissements scolaires, évaluation des résultats scolaires )
L’emploi
( l’Intelligence Artificielle utilisée dans le recrutement ou la sélection de candidats )
L’application de la loi et des décisions de justice
( évaluation du risque de délinquance ou de récidive, profilage de la personne concernée )
Des exceptions sont prévues.
( recherche d’un disparu, prévention d’une menace terroriste imminente )

Le risque limité :
Les utilisateurs doivent être informés qu’ils interagissent avec une Intelligence Artificielle.

Les Intelligences Artificielles génératives doivent mentionner que le contenu est artificiel.
Les « chatbots » ou les outils génératifs capables de créer des images ou des vidéos ou des textes en sont un exemple.

Le risque minimal ou nul :
C’est l’utilisation d’un système ne présentant aucun risque ou très peu.
Il n’est soumis à aucune exigence particulière.
C’est le cas des filtres anti-spam ou les Intelligences Artificielles dans les jeux vidéos.

Les fournisseurs de l’Intelligence Artificielle sont toutefois incités à fournir des codes de bonne conduite