La volonté du gouvernement fédéral d’établir des directives claires pour l’usage de l’intelligence artificielle est réjouissant et la prochaine étape serait une réglementation nécessaire et urgente de cette technologie. Cependant, en y regardant de plus près, on se trouve confronté à un manque de courage concernant l’identification des nombreux dilemmes soulevés par ce sujet. Par exemple, l’essentiel des dangers de l’utilisation des réseaux neuronaux artificiels ou de l’externalisation des compétences à des prestataires de services privés ne sont pas traités en détail. Le présent article apporte un point de vue critique sur ces diverses questions.
Fin novembre 2020, le Conseil fédéral a adopté les lignes directrices pour la Confédération sur l’intelligence artificielle. Celles-ci portent sur le traitement futur de l’intelligence artificielle (IA) et sont basées sur le rapport «Défis de l’intelligence artificielle», qui a été publié vers la fin de l’année dernière. Bien que les lignes directrices ne soient officiellement considérées que comme un «cadre d’orientation générale» pour l’administration fédérale, elles sont susceptibles d’avoir une influence sur l’industrie et les partenaires internationaux.
En raison du stade précoce de développement de la technologie et de l’incertitude qui en résulte, les sept lignes directrices sont formulées en termes très généraux et sont conformes au credo libéral de créer des conditions-cadres sans réglementation excessive. Elles veulent avant tout garantir la dignité et le bien de l’individu ainsi que le bien commun. L’utilisation de l’intelligence artificielle doit être communiquée de manière transparente et les décisions automatisées doivent être compréhensible. De plus, la responsabilité en cas de dommage ou de violation de la loi doit être clairement définie. A cela s’ajoute la volonté de la Confédération de jouer un rôle actif dans la définition de la gouvernance mondiale de l’IA et d’impliquer tous les acteurs nationaux et internationaux concernés dans ce processus.
L’exigence de transparence, de traçabilité et d’explicabilité est bienvenue et constitue la base nécessaire pour la responsabilité claire, également exigée par les lignes directrices. En effet, sans savoir comment une décision automatisée a été prise, il est impossible de déterminer quelle partie de celle-ci a échoué et doit, par conséquent, être tenue pour responsable. Cependant, la complexité de ces algorithmes augmente rapidement ces dernières années (cf. ci-dessous la boîte à infos). Plus particulièrement, la recherche est confrontée à un défi dans le cas des «réseaux neuronaux artificiels» qui sont de plus en plus utilisés car très flexibles : elle ne peut expliquer que de manière insuffisante pourquoi des entrées spécifiques (données) conduisent à certains résultats (décisions).
L’apprentissage automatique
L’apprentissage automatique est souvent appelé familièrement «intelligence artificielle». Les experts n’utilisent cependant pas ce terme, car ces algorithmes informatiques ne peuvent résoudre qu’une tâche très spécifique à la fois et ne peuvent donc pas être appelés «intelligence». Une distinction est faite entre les algorithmes supervisés et non supervisés, ainsi que leurs formes hybrides. Les algorithmes les plus utilisés sont les algorithmes «supervisés». Ces derniers sont formés avec des données (par exemple des images), où la caractéristique concernée (chien, voiture, bateau…) est toujours présente, caractéristique que les algorithmes doivent ensuite lire à partir de données inédites. En tant que représentants des algorithmes supervisés, les «réseaux neuronaux artificiels», qui tirent leur nom de la propagation des signaux électriques dans les neurones, ont connu un fort développement ces dernières années – notamment en raison de l’énorme capacité de calcul des ordinateurs modernes.
Ces réseaux calculent de manière répétée des entrées avec des milliards de facteurs différents et sont particulièrement utiles pour les tâches très complexes telles que la classification d’images, l’analyse de textes ou la synthèse. Cependant, en interne, ces réseaux ne fonctionnent que par addition et multiplication. Dans ce processus, les numéros sont si souvent croisés entre eux que le chemin de calcul et donc l’apparition de résultats spécifiques ne peut, selon l’état actuel de la recherche, être retracé de manière causale. En raison de leur généralité (ils peuvent apprendre presque tout) et de leur aspect marketing (ça sonne bien quand on les utilise), ils sont de plus en plus répandus.
Par exemple, les «Adversarial Examples» (fr. exemples adversaires) sont inévitables. Ces entrées spécialement conçues dans les réseaux neuronaux artificiels provoquent des erreurs spécifiques et correspondent quasiment à des illusions optiques pour les machines. En outre, il n’est possible de déterminer que de manière insuffisante quelles sont les propriétés des données utilisées pour prendre des décisions par des algorithmes aussi complexes. Un cas bien connu dans la recherche est celui où des images de chiens et de loups n’étaient pas distinguées pas par l’apparence de l’animal, mais par la neige en arrière-plan que l’on retrouvait principalement chez les loups.
Il est évident que si la recherche est déjà confrontée à ces problèmes, le développement de l’administration fédérale et de l’industrie, agissant sous pression financière, pourra, lui aussi, tenir compte de ces problèmes que dans une mesure limitée. Cela signifie que l’explicabilité et la compréhensibilité des décisions automatisées complexes vont disparaitre, et, avec elle, la responsabilité clairement définie requise (cf. ligne directrice 4). En outre, les deux faiblesses des réseaux neuraux artificiels présentées ci-dessus sont également en contradiction avec la sécurité, la robustesse et la résilience des algorithmes utilisés, caractéristiques requises dans la ligne directrice 5.
A cela s’ajoute que tous les algorithmes de classification basés sur des données (c’est-à-dire pas seulement les réseaux neuronaux artificiels) apprennent uniquement la distribution des données d’entrainement, c’est-à-dire qu’ils classifient ces données en fonction de l’entrée particulière. Ils reproduisent donc les conventions sociales implicitement inscrites dans les données d’entrainement. En raison du risque de crédulité des utilisateurs face à la technologie qui les pousseront à utiliser les résultats des algorithmes sans les remettre en question, les problèmes sociaux, tels que la discrimination fondée sur l’origine ou le sexe, augmenteront. Bien que cela soit demandé dans la ligne directrice 3 par la « qualité suffisante » des données, cet aspect n’est pas suffisamment discuté. Malheureusement, il ne suffit pas de supprimer simplement les informations sur l’origine ou le sexe des données d’entraînement, car très souvent, d’autres entrées – comme le lieu de résidence ou la masse musculaire – présentent une forte corrélation avec celles-ci et permettent, indirectement, avec d’autres entrées, de déduire les données discriminantes.
En ce qui concerne les méthodes actuellement connues pour réduire artificiellement la classification discriminatoire, les recherches ont montré que de nombreuses définitions de l’équité s’excluent mutuellement. Cela souligne la nécessité de résoudre ce problème au niveau social plutôt que technologique.
Il est encourageant de constater la volonté de la Confédération de s’engager dans la gouvernance mondiale de l’IA et de travailler au renforcement de toutes les parties prenantes concernées (cf. lignes directrices 6 et 7). Le développement de standards et de technologies est actuellement principalement mené par les cinq géants technologiques américains Google, Amazon, Facebook, Apple et Microsoft, et s’aligne donc sur leurs intérêts commerciaux.
Actuellement, l’accent est de plus en plus mis sur «Machine Learning as a Service» (MLaaS, fr. apprentissage automatique en tant que service). Dans ce modèle commercial, le client fournit ses données au prestataire de service, et ce dernier sélectionne ensuite le modèle et le type d’algorithmes sans l’intervention du client. Cela signifie, d’une part, que le savoir-faire est généré par ces grands fournisseurs et y reste et, d’autre part, que la responsabilité de la traçabilité et de la robustesse leur est également confiée. Cela réduit considérablement la marge de manœuvre réglementaire de la Suisse. Un point problématique supplémentaire concernant les groupes actifs au niveau mondial est également la protection des données qui ne sera pas abordé plus avant à ce stade. Le gouvernement fédéral serait avisé d’agir rapidement en ce qui concerne la gouvernance avant que toutes les normes pertinentes aient déjà été fixées et soient difficiles à modifier.
En conclusion, si les lignes directrices vont dans la bonne direction, elles sont loin d’être assez strictes et ne répondent pas de manière suffisante aux problèmes illustrés ci-dessus. L’exigence de transparence devrait être plus poussée. La tendance actuelle, qui consiste à appliquer des algorithmes trop complexes et fragiles à des montagnes de données mal structurées, simplement parce qu’ils produisent rapidement des résultats utilisables et constituent un bon argument marketing, devrait être inversée. Le problème de la foi aveugle dans la technologie doit également être abordé de manière spécifique. Les décisions automatisées ne doivent pas nous débarrasser de notre travail de réflexion et donc de notre autoréflexion, mais doivent nous soutenir positivement dans cette démarche. Enfin et surtout, ces changements devraient intervenir rapidement, avant que les grands acteurs n’aient fixé le cadre et que la Suisse n’ait d’autre choix que de s’adapter aux normes internationales. Afin de développer plus en avant la stratégie de la Confédération, nous devrions générer un savoir-faire responsable en matière d’apprentissage automatique en Suisse et ainsi façonner activement la gouvernance de l’IA.
Traduction: Romane Loviat