GEEK

Les visages générés par ordinateur, indiscernables et davantage dignes de confiance

Flavien Chantrel

De tout temps, l’être humain s’est demandé si ce qu’il observait était réel. Ce questionnement a été plusieurs fois remis au goût du jour avec l’invention de la photographie et des logiciels de traitement de l’image. Un bref rapport d’étude publié aujourd’hui dans la revue scientifique américaine, Proceedings of the National Academy of Sciences of the United States of America (PNAS), vient à nouveau déposer la question sur la table. Pouvons-nous faire confiance à nos sens ?

Le rapport de l’étude menée par Sophie J. Nightingale, chercheuse britannique au département de psychologie de l’université de Lancaster, et Hany Farid, chercheur du département de génie électrique et de l’informatique de l’université de Californie, s’intitule « Les visages générés par une Intelligence Artificielle (IA) ne peuvent être distingués des visages réels et ils nous inspirent plus de confiance ». Tout un programme.

Un exemple de visage généré par le site « thispersondoesnotexist »-Capture d’écran

Comment générer un « faux visage » ?

Un site internet bien connu des internautes est passé maître pour générer de faux visages : thispersondoesnotexist.com. À chaque fois que vous consultez cette page web, un nouveau visage est généré par un système appelé Generative Adversarial Networks ( un GAN).
Le concept est assez simple. Deux réseaux de neurones artificiels sont connectés l’un à l’autre. Le premier, appelé générateur, est chargé de produire des amas de pixels. Le second, appelé discriminateur, a été programmé pour distinguer un visage humain de ce qui ne l’est pas. A chaque fois que le discriminateur ne reconnaît pas un visage humain, il pénalise le générateur qui va adapter sa génération de pixels en fonction. On fait tourner le système jusqu’à ce que le discriminateur reconnaisse un visage humain et arrête de le signaler au générateur.

La plupart du temps, de petites erreurs dans la génération du visage permettent de se rendre compte de la supercherie. Ce n’est pas toujours le cas comme le montre l’exemple ci-dessous : un extrait des visages utilisés pour l’étude, les vrais sont à gauche, les faux à droite-University of Texas

Le hasard fait mieux que nous

Selon l’étude, les algorithmes ont réussi dans certains cas à surpasser ces petites erreurs graphiques. Ils ont présenté, un par un, 128 visages à 315 participants. La consigne était de dire s’il s’agissait d’un visage faux ou d’une vraie personne. Les participants donnaient une bonne réponse dans 48 % des cas. Soit un peu moins que le hasard. Si vous participiez à l’étude, vous aviez un peu plus de chance de donner la réponse juste en répondant au hasard.

L’expérience a été réitérée, mais avec un échantillon de participants entraînés à faire la différence entre un vrai visage et un faux. Le taux de bonnes réponses est alors monté à 59 %. C’est-à-dire à peine plus que le hasard. « Les visages générés synthétiquement ont traversé « la vallée de l’étrange » et sont capables de créer des images impossibles à distinguer de vrais visages », estiment les chercheurs.

la théorie du roboticien Masashiro

« La vallée de l’étrange » est une théorie développée dans les années 70 par le roboticien japonais Masashiro Mori. Que nous dit-elle? En gros que plus l’apparence d’un robot est similaire à celle d’un être humain, plus ses imperfections nous semblent monstrueuses. En théorie, ce ne serait qu’à partir d’un haut degré de réalisme que ces « monstruosités » disparaîtrait de notre regard.
L’androïde nous semblera alors « moins dérangeant » à l’œil. C’est cette étape que semble avoir franchi les algorithmes de génération de visages. Nous n’arriverons bientôt plus à faire la différence entre la photographie d’un visage et une image générée par une IA. Nous accordons même une plus grande confiance à cette dernière selon l’étude.

Ces faux nous « dignes de confiance »

Lors de la troisième expérience, 223 personnes ont regardé 128 visages et devaient juger si les personnes photographiées avaient l’air « digne de confiance ». Ils devaient les classer sur une échelle de 1 à 7. Les faux visages ont obtenu un score moyen de 4,82 contre 4,48 pour les vrais. « C’est peut-être parce que les visages générés par ordinateur sont proches des visages moyens qui sont le plus souvent considérés comme « digne de confiance ».

Les auteurs de cette nouvelle étude font également remarquer que l’accès facile à ce genre d’outil de génération de « faux visages » pose déjà problème et continuera de poser problème dans l’avenir d’Internet.
« Le texte, le son, l’image et la vidéo générés par l’intelligence artificielle (IA) sont déjà utilisés à des fins d’imagerie intime non-consensuelle, de fraude financière et de campagnes de désinformation », indiquent l’abstract de l’étude. Les scientifiques encouragent à  développer des lignes de conduite et de mieux contrôler ces technologies pour éviter qu’on ne les utilise à des fins frauduleuses.
Un souhait qui risque de rester lettre morte dans la jungle qu’est devenu le web…

 

Maxime KLASSEN (st)

Le bref rapport est disponible en ligne (site en anglais) : https://www.pnas.org/content/119/8/e2120481119

NIGHTINGALE, Sophie J. et FARID, Hany, 2022. AI-synthesized faces are indistinguishable from real faces and more trustworthy. Proceedings of the National Academy of Sciences. 22 février 2022. Vol. 119, n° 8, pp. e2120481119. DOI 10.1073/pnas.2120481119.