Si les algorithmes nous régulent faut-il réguler les algorithmes ?

Publié le 16/01/2017 - CIO Online - E. Papin

Pour lire l’article d’Étienne Papin du 16 janvier 2017 pour CIO Online.

Pour en savoir plus sur nos compétences en Données personnelles et Vie privée, Droit de l’Internet et Commerce Électronique et en Droit de l’Informatique / IT.

La fonction première du droit est de réguler les rapports des individus entre eux. Le temps est peut-être venu de réguler le rapport des algorithmes avec les individus.

Ces dernières années, des progrès importants ont été faits par les algorithmes prédictifs grâce aux techniques dites « d’apprentissage profond », notamment en tirant profit des possibilités des processeurs développés pour les cartes graphiques. Les résultats de ces algorithmes s’intègrent de plus en plus souvent dans nos vies quotidiennes sans que nous en ayons parfaitement conscience. Recommandations d’un produit, d’un vol d’avion, d’une chambre d’hôtel, évaluation du risque de solvabilité du demandeur d’un crédit, sélection du meilleur candidat pour une embauche. Derrière ces choix plus ou moins importants pour la vie des individus, des algorithmes ont travaillé.

La réflexion juridique sur les conséquences du recours aux algorithmes se développe. En 2014, le Conseil d’Etat produisait une étude intitulée « Le numérique et les droits fondamentaux » qui concluait à la nécessité de définir un droit des algorithmes prédictifs. En mai 2016, la Maison-Blanche a publié un rapport « On algorithmic systems, opportunity and civil rights ». Le 15 décembre dernier, la secrétaire d’Etat au numérique et à l’innovation a rendu public les recommandations formulées dans le rapport du Conseil Général de l’Economie concernant les : « Modalités de régulation des algorithmes de traitement des contenus ».

De ces réflexions, il se dégage trois risques principaux à l’utilisation non contrôlée des algorithmes :

  • une opacité dans le fonctionnement qui vient à impacter les comportements sans que les personnes en aient conscience ;
  • une confiance erronée dans le résultat des algorithmes ayant des conséquences dommageables ;
  • des résultats conduisant à des appréciations discriminatoires des personnes.

Transparence et contrôles doivent répondre à ces écueils.

La transparence de l’algorithme

Depuis longtemps la loi a entendu protéger l’individu contre les décisions de l’ordinateur. L’article 10 de la loi du 6 janvier 1978 Informatique et Libertés prévoit que « Aucune […] décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé de données destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité ». Cet article existe depuis l’origine de la loi de 1978, dans des termes à peu près constants. Le règlement européen sur la protection des données personnelles qui entrera en vigueur le 25 mai 2018 reprend cette interdiction dans son article 22.

Mais qu’en est-il de l’interdiction si l’humain derrière l’ordinateur adopte toujours la décision qui lui est suggérée par l’ordinateur ? Qu’en est-il de l’interdiction lorsque ce n’est pas une décision qui est prise sur la base de l’algorithme mais une suggestion qui est faite, avec une grande probabilité d’être suivie d’effet. Les algorithmes orientent aujourd’hui de manière puissante nos choix de consommation. Pour le choix d’un produit, pour la détermination de l’enseigne dans laquelle nous l’achèterons, basé sur l’idée que les algorithmes ont calculé de notre personnalité, de notre pouvoir d’achat, de nos habitudes de consommation, tel ou tel produit ou service sera suggéré.

En regardant au-delà de la sphère économique, dans le domaine de l’information en ligne, est-ce le rôle d’un algorithme de renforcer une opinion ? Pourquoi un moteur de recherche devrait-il présenter des informations nécessairement en rapport avec ce qu’il a été inféré de nos centres d’intérêt ou de nos opinions ? Ne devrait-il pas, au contraire, exposer à l’individu des choix et des opinions différentes ?

Le droit de données personnelles n’est pas forcément adapté pour réguler l’usage des algorithmes prédictifs. Ce droit repose sur le principe du consentement de la personne au traitement de ses données. Ce consentement est bien souvent un leurre parce qu’il est aujourd’hui impossible d’utiliser pleinement un smartphone ou internet sans accepter d’être tracé. Le consentement étant obligatoire à l’usage de la technologie, l’exploitation réelle qui sera faite des données par le responsable du traitement est totalement opaque. Ainsi, la multitude de traces que chaque individu laisse dans son usage de l’internet et de son smartphone est récupérée par de nombreux intervenants. Si une personne souhaite exercer son droit d’accès à ses données personnelles auprès de chacun des sites web, développeurs d’applications, réseaux sociaux, qu’il a utilisé, il se trouve devant une tâche rédhibitoire.

Ce n’est plus de ne pas avoir consenti au traitement de ses données qui est un problème, c’est de ne pas savoir les déductions automatiques et prédictives que font les entreprises ayant capturé ces données qui va être au centre des préoccupations.

La Commission d’Accès aux Documents Administratifs a initié le processus de transparence s’agissant des algorithmes utilisés par l’administration. Dans une décision du 23 juin 2016, la CADA s’est prononcée en faveur de la communication du code source de l’algorithme effectuant le tirage au sort ou la présélection des futurs étudiants sur la plateforme « Admission post bac » (A.P.B.).

Les premiers textes législatifs pris selon cette logique ont été adoptés au cours de l’année 2016. La loi pour une République Numérique du 7 octobre 2016 a élargi les données qui doivent être communiquées par les administrations publiques en modifiant l’article L. 300-2 du Code des relations entre le public et l’administration. Les codes-source des logiciels de l’administration sont maintenant considérés par la loi comme des documents administratifs comme les autres, communicables dans les mêmes conditions.

Par la même loi, la volonté d’imposer la transparence aux plateforme en ligne a été introduite dans le Code de la consommation. Au titre de l’article L. 111-7 : « Tout opérateur de plateforme en ligne est tenu de délivrer au consommateur une information loyale, claire et transparente sur : […] sur les modalités de référencement, de classement et de déréférencement des contenus, des biens ou des services auxquels ce service permet d’accéder ». Un décret précisera le contenu des informations devant être fournies au consommateur.

Ces obligations de transparence sont amenées à se multiplier. Parmi les recommandations du rapport remis en décembre 2016 à Axelle Lemaire, figure la communication sur le fonctionnement des algorithmes : « Quand un algorithme est affiché explicitement, ou perceptible pour l’utilisateur, identifier l’équipe où la personne responsable de son fonctionnement (« chief algorithm officer ») et communiquer au nom de cette équipe, pour rendre visible l’action humaine qui est aux commandes derrière l’algorithme ».

La responsabilité de l’algorithme

La caractéristique des algorithmes exploitant les techniques d’apprentissage profond est leur capacité à améliorer seuls les résultats qu’ils produisent. Ce qui, a contrario, met également en avant leur capacité à se tromper…

La croyance que des acteurs économiques peuvent avoir sur l’infaillibilité des algorithmes qu’ils utilisent peut provoquer des conséquences dommageables. Nous en avons déjà eu l’illustration dans le domaine boursier.

Aujourd’hui, selon les informations contenues dans le rapport « Modalités de régulation des algorithmes de traitement des contenus » de décembre 2016, le trading algorithmique représente 75 à 80 % des transactions aux USA et près de 60% en Europe. Le rapport souligne que « ces algorithmes de trading prennent eux-mêmes des décisions, par opposition à de simples algorithmes d’exécution ». Non seulement la machine boursicote toute seule, mais elle boursicote à haute vitesse. Deux tiers des opérations de trading seraient faites à « haute fréquence » : une opération toutes les 113 microsecondes ! Ce trading algorithmique a été responsable de plusieurs incidents sur les cours, comme des mini-krachs mais qui font peser un vrai risque systémique sur l’ensemble des marchés.

Aussi, la directive 2014/65/UE du 15 mai 2014 concernant les marchés d’instruments financiers qui devra être transposée avant le 3 janvier 2018 a principalement été adoptée pour encadrer le trading algorithmique.

C’est nécessairement au niveau européen que des régulations sectorielles de l’usage des algorithmes doivent être envisagées pour pouvoir peser sur les GAFA.

La moralité de l’algorithme

Le rôle des algorithmes est particulièrement sensible dans l’accès au logement, au travail, au crédit, à l’assurance, à la santé et à l’éducation. On a vu plus haut les conséquences importantes pour chaque étudiant des sélections opérées par le logiciel APB.

D’une façon générale, la loi interdit d’opérer des discriminations sur un certain nombre de critères tenant à l’origine ou au comportement des personnes. L’article 225-1 du Code pénal incrimine toute forme de discrimination fondée notamment sur : l’origine, le sexe, la situation de famille, l’apparence physique, le patronyme, le lieu de résidence, le handicap, etc.

La question est d’autant plus épineuse que les algorithmes d’aide à la décision utilisés dans les secteurs précités ne sont pas conçus pour discriminer les personnes sur la base de critères illicites. Mais l’apprentissage que l’algorithme fera des données qu’on lui demande de traiter et de ses propres résultats pourrait conduire à des solutions discriminatoires.

Le rapport de décembre 2016 constate qu’il devient nécessaire pour les pouvoirs publics de contrôler les résultats que les algorithmes produisent. Il s’agit de détecter l’existence de discriminations illicites. Les rapporteurs constatent que « non seulement c’est une tâche difficile, mais les méthodes utilisables actuellement ne « passent pas à l’échelle » : elles nécessitent trop de moyens, sont relativement lentes et ne permettent donc pas de suivre l’évolution des technologies ». Le rapport recommande donc de créer une plateforme collaborative scientifique, destinée à favoriser le développement d’outils logiciels et de méthodes de test d’algorithmes.

*

Face à la rapidité de calcul des algorithmes, il n’est rien de plus confondant que la lenteur des parlements et des juges. Car s’il faut réguler les algorithmes, il faudra agir rapidement et avec détermination.

Qu’on en juge. En 2010, des sites comparateurs de prix déclassés des résultats de Google suite à la modification de son algorithme de ranking ont porté plainte devant la Commission européenne pour abus de position dominante de Google. Une communication de griefs a été faite à Google par la Commission européenne en avril 2015. En novembre 2016, la procédure n’en était encore qu’à la réponse de Google. Avant une décision de la Commission, puis un immanquable recours devant la CJUE… Le temps de la justice n’est décidément pas compatible avec la vitesse de l’innovation numérique. Le politique devra reprendre l’initiative.

Autres publications