le Vendredi 21 Mai 2021

Frédéric Filloux : l'Europe et les Etats-Unis, deux approches de l'intelligence artificielle




Une lecture en parallèle des récentes productions de la Commission européenne et du Congrès des Etats-Unis sur le futur de l'intelligence artificielle (IA) révèle, de façon presque caricaturale, la différence d'approche. Le 21 avril, l'Europe a jeté les bases d'un encadrement des développements de l'IA. Personne ne nie la nécessité d'une anticipation d'une science appelée à s'insinuer dans tous les recoins de la technologie.  

LIRE AUSSI >> Intelligence artificielle : quand la technologie simule la présence d'une personne décédée

Mais cette obsession du risque est au centre des recommandations européennes avec une gradation des périls à venir, perçus comme "inacceptables" (par exemple l'usage qui déboucherait sur un score social, comme en Chine), "élevés", "limités" ou "minimes" (jeux vidéo...). 

L'ennui est que ce nuancier n'est pas toujours cohérent avec la réalité. Il considère l'intelligence artificielle comme un tout aux contours bien identifiés, alors que cette science est un agrégat de disciplines différentes, évoluant constamment, ce qui obscurcit la frontière de l'acceptabilité. A quel stade un système d'assistance à la conduite devient-il un risque "élevé" ? Quid d'un algorithme d'optimisation publicitaire qui peut facilement dériver sur profilage individuel ? Seul élément précis du texte, les contrevenants s'exposent à des amendes colossales (6% du chiffre d'affaires).  

LIRE AUSSI >> Recherche : vers une intelligence artificielle plus frugale

L'Express Abo

L'approche américaine du Conseil national de sécurité sur l'IA est différente jusque dans la sémantique. Il y est question de "talents" (comment les multiplier dans un marché intérieur actuellement à la recherche de 430 000 computer scientists, là où les universités n'en produisent que 71 000 chaque année), de développement d'infrastructure et de technologies critiques au service de la santé, de l'éducation, de la recherche fondamentale et de l'espace.  

La partie la plus frustrante du texte européen est précisément son absence de préconisation sur le "comment faire". On aurait attendu de l'UE un grand plan sur les formations scientifiques, avec des liens plus forts entre les universités, les laboratoires et même le secteur privé dans tous les domaines de l'IA. Au lieu de cela, l'Europe semble arc-boutée sur son éternelle approche d'identification de ce qui est d'abord vu comme un problème : "prévention-régulation-sanction".  



Source : https://lexpansion.lexpress.fr/actualite-economiqu...