Des lettres de motivation générées automatiquement par Chat GPT, en passant par des lA utilisées pour des diagnostics médicaux, pour évaluer votre dangerosité ou votre droit d’entrée à l’université … l’intelligence artificielle est partout dans nos vies.
Mais jusqu’à présent, aucune loi ne l’encadrait ni ne nous protégeait de potentielles atteintes à nos libertés fondamentales, à notre santé, notre sécurité. Cela a changé vendredi dernier : l’UE a conclu un véritable marathon de négociations et s’est accordée sur l’IA Act, Le monde regardait : car jamais 27 pays ne s’étaient mis d’accord pour encadrer l’IA. Ces règles devront s’imposer aux géants de la tech…Mais ce texte n’est pas sans limites. On fait le point avec Laurence Benhamou, journaliste au sein du service qui couvre l’actualité du numérique de l’AFP, Angela Müller, de l’ONG Algorithm Watch et Gary Marcus, spécialiste américain de l’IA.
Alors qu’un compromis a été trouvé au sein de l’Union européenne dans la nuit de vendredi 8 décembre sur la régulation de l’IA, Le Meilleur des Mondes se penche sur ce texte réglementaire en construction depuis quatre ans, qui soulève de nombreuses questions.
❓ Peut-on réellement parler « d’avancée historique » ? ❓ Pourquoi ne peut-on accéder à aucun texte lié à ce projet de plusieurs années ? ❓ Comment s’est déroulé le travail législatif européen depuis 2019 ?
Des questions auxquelles tenteront de répondre les trois invités de François Saltiel :
🎙️ Raja Chatila, professeur de robotique, d’intelligence artificielle et d’éthique des technologies à Sorbonne Université
🎙️ Caroline Lequesne, maître de conférences en droit public à l’université Côte d’Azur (Nice), directrice du Master 2 en droit algorithmique et gouvernance des données
🎙️ Marianne Tordeux, directrice des affaires publiques de France Digitale, conseillère au CESE
L’IA sur la scène géopolitique avec Amal El Fallah Seghrouchni & Mélanie Benard-Crozat
Le deepfake est une technique de manipulation audiovisuelle qui repose sur l’intelligence artificielle et qui permet d’incruster des visages, d’émuler des voix et des discours ou des gestes dans des vidéos déjà existantes. Souvent utilisé dans les pratiques de cyberharcèlement pour produire des vidéos à caractère pornographique, ce trucage numérique consiste à nuire en détournant l’image d’une personne afin de lui prêter des comportements ou des propos qu’elle n’a pas tenus ou qu’elle ne partage pas.
Le deepfake repose sur une technique de Machine Learning qui, à partir d’images déjà fournies
consiste à mettre en compétition deux algorithmes d’apprentissage (Generative Adversarial Network – GAN – soit un réseau antagoniste génératif). Le premier algorithme identifié comme « générateur » va chercher à créer des contrefaçons les plus crédibles possibles. Le second dit « discriminateur » s’applique à détecter les données générées artificiellement le plus efficacement possible.
Au fil du temps, les deux algorithmes se perfectionnent dans leur relation d’amélioration continue pour optimiser le niveau de réalisme des images. À un moment donné, le premier algorithme arrive à produire de fausses images sans que le second ne puisse détecter la supercherie. Peuvent se distinguer aujourd’hui plusieurs techniques de synthèse et de montage pour créer un deepfake : le faceswap(échange de visage), le lipsync(synchronisation des lèvres), le puppeteering(expressions faciales et corporelles), etc.
Ce qu’il faut retenir…
En nous intéressant aux facteurs qui contribuent à la propagation des deepfakes, Trois composantes typiques peuvent être identifiées :
l’hypervisibilité : si les logiciels de trucage numérique sont aujourd’hui faciles d’utilisation, la réalisation d’une vidéotox doit cependant pouvoir s’appuyer sur un nombre important d’images et de vidéos en ligne pour se rapprocher le plus possible d’un certain réalisme. Cette injonction de visibilité ne peut se dissocier de celle de modernité (le fait d’être en phase avec l’actualité, d’être à la mode, de correspondre à une tendance récente), et contribue considérablement à sa propagation sur la toile. Ainsi, plus la personne est populaire et référencée sur Internet, plus elle est susceptible de faire l’objet d’un deepfake ;
l’exclusivité : plusieurs études et rapports (Institut Reuters, European Journalism Observatory) montrent que les sources officielles suscitent aujourd’hui une certaine défiance de la part du grand public (crédibilité des journalistes remise en question, moyens d’information traditionnels boudés par les jeunes générations, etc.). Sont au contraire privilégiées sur Internet des sources alternatives qui se focalisent sur la révélation, l’exclusivité, le scoop(comme la source d’un témoin de l’affaire, un proche du dossier, etc.) ;
l’émotion : un lien fondamental est établi entre l’émotion mémorisable et le pouvoir de l’image. Ainsi une vidéo à caractère sexuel, perçue dans sa dimension transgressive du tabou, est un élément porteur de sensations pour le spectateur. L’évocation de l’interdit procure des émotions contradictoires pour celui qui regarde, entre l’offense faite à son système de valeurs et la réjouissance par procuration à franchir les limites de cet intime. « L’information ne cherche pas ici un savoir ni même un voir, mais un faire-voir susceptible de produire directement un croire, indispensable à l’émotion ».
Une première interprétation du mot deepfake peut être proposée dans la contraction de l’anglais « deep learning », le système d’apprentissage qui utilise l’intelligence artificielle, et de « fake » qui signifie contrefait. Ainsi pourrions-nous traduire ce terme par des contenus trompeurs et spécieux, rendus profondément crédibles grâce à l’intelligence artificielle.
Mais ce terme peut également être directement inspiré du pseudonyme d’un utilisateur du site communautaire et social Reddit « u/deepfake » qui fut le premier à publier en novembre 2017 des vidéos pornographiques dans lesquelles il réussit à remplacer le visage des actrices X par celui de célébrités américaines.
Comme il est nécessaire de disposer d’une assez grande quantité d’images, au départ, pour que l’apprentissage soit vraiment performant, la médiatisation de certaines personnalités hollywoodiennes a malheureusement constitué une base de données privilégiée pour ce faussaire. Ainsi, si la jeune actrice Daisy Ridley fut la première victime de ses hypertrucages, le phénomène prit une réelle ampleur peu de temps après avec la fausse sextape mettant en scène Gal Gadot (connue pour son interprétation de Wonder Woman).
La presse américaine (The New York Times, The Washington Post, The Guardian, etc.) s’est rapidement inquiétée de la popularité massive de ces courtes séquences pornographiques, qui ne se cantonnent plus aujourd’hui à la fabrication de contenus obscènes, mais deviennent au contraire de véritables armes de communication politique.
Que dit le cadre légal…
Ces trucages numériques étant considérés comme des « infox » peuvent relever de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, qui encadre la production et la diffusion de fausses informations.
Cependant, essentiellement destinée à réguler les campagnes électorales, elle s’applique difficilement à la quasi-totalité des deepfakes qui sont de nature sexuelle ou pornographique.
Aussi pour cette catégorie d’hypertrucages peuvent être mobilisés :
l’article 226-8 du Code pénal qui prévoit un an d’emprisonnement et 15 000 euros d’amende « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » ;
l’article 226-4-1 du Code pénal qui prévoit que « le fait d’usurper l’identité d’un tiers ou de faire usage d’une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération est puni d’un an d’emprisonnement et de 15 000 euros d’amende ».
Quelques références scientifiques :
Barre Aurélie, La force intime des images (Tristan, Lancelot et Perceval devant l’image), Littérature, vol. 199, n° 3, 2020, p. 86‑100, [https://doi.org/10.3917/litt.199.0086].
Bronner Gérald, La démocratie des crédules, Paris, Presses Universitaires de France, coll. « Hors collection », 2013, 360 pages.
Cazals François, Cazals Chantal, Intelligence artificielle. L’intelligence amplifiée par la technologie, Louvain-la-Neuve, De Boeck Supérieur, coll. « Hors collection Économie/Gestion », 2020, 320 pages.
Delfino Rebecca A., Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’s Next Tragic Act, Fordham Law Review, vol. 88, n° 3, 2019, p. 887‑938, [https://doi.org/10.3390/jimaging7070108].
Ducol Claudine, Le scoop : entre le savoir et l’opinion, Communication & langages, n° 111, 1997. p. 4-18.
Guarnera Luca, Giudice Oliver, Battiato Sebastiano, Fighting Deepfake by Exposing the Convolutional Traces on Images, IEEE Access, vol. 8, n° 20, 2020, p. 165085‑165098, [https://doi.org/10.1109/ACCESS.2020.3023037].
Langa Jack, DEEPFAKES, REAL CONSEQUENCES: CRAFTING LEGISLATION TO COMBAT THREATS POSED BY DEEPFAKES, Boston University Law Review, vol. 101, n° 2, 2021, p. 761‐801.
Schick Nina, Deepfakes, The coming Infocalypse, New York, Twelve, 2020, 224 pages.
Siegel Dennis, Kraetzer Christian, Seidlitz Stefan, Dittmann Jana, Media Forensics Considerations on DeepFake Detection with Hand-Crafted Features, Journal of Imaging, vol. 7, n° 108, 2021, p. 1-29, [https://doi.org/10.3390/jimaging7070108].
Tétu Jean-François, L’émotion dans les médias : dispositifs, formes et figures, Mots. Les langages du politique, vol. 75, n° 3, 2004, p. 9‑20, [https://doi.org/10.4000/mots.2843].
Westerlund Mika, The Emergence of Deepfake Technology: A Review, Technology Innovation Management Review, vol. 9, n° 11, 2019, p. 39‑52, [https://doi.org/10.22215/timreview/1282].
Dans une tribune de nombreux experts de l’IA, dont Sam Altman, mettent en garde
Bloomberg / Bloomberg via Getty Images Sam Altman, le président de Y Combinator, le en conférence en octobre 2017 en Californie
TECHNOLOGIE – Un groupe de chefs d’entreprise et d’experts, dont Sam Altman, le créateur de ChatGPT, ont averti ce mardi 30 mai dans une déclaration en ligne des menaces d’« extinction » pour l’humanité posées par l’essor de l’intelligence artificielle (IA).
La lutte contre les risques liés à l’IA devrait être « une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires », ont écrit les signataires sur le site internet du Center for AI Safety, une organisation à but non lucratif basée aux États-Unis.
Geoffrey Hinton, considéré comme l’un des pères fondateurs de l’intelligence artificielle (IA) et également signataire de la tribune, avait déjà mis en garde contre ses dangers en quittant début mai son poste au sein du géant Google.
Les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times.
En mars, le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».
Le déploiement à toute vitesse d’une intelligence artificielle de plus en plus « générale », dotée de capacités cognitives humaines et donc susceptible de bouleverser de nombreux métiers, a été symbolisée par le lancement en mars par OpenAI de GPT-4, une nouvelle version plus puissante de ChatGPT, ouvert au grand public fin 2022.
L’Américain Sam Altman multiplie régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail. La semaine dernière à Paris, il a discuté avec le président Emmanuel Macron de la manière de trouver « le juste équilibre entre protection et impact positif » de cette technologie.
Des applications comme ChatGPT devraient constituer un outil inédit pour les équipes de campagne en vue de l’élection présidentielle américaine de 2024. Un recours à l’IA synonyme de menaces pour la qualité du débat public.
ILLUSTRATION « LE MONDE »
Joe Biden écrit : « Ma campagne sera focalisée sur les valeurs qui m’ont guidé au cours de ma carrière : la décence, l’honnêteté, le respect de tous. Je crois que nous devons nous rassembler, en tant que pays, et travailler en vue d’un objectif commun, fait de progrès et d’unité. » Le président ajoute ceci : « Chaque donation, aussi petite soit-elle, nous aidera à bâtir un mouvement sur le terrain qui permettra d’avoir un impact réel sur la vie des Américains. »
Joe Biden n’a jamais écrit cela. Il n’a fallu qu’une poignée de secondes pour adresser une demande élémentaire à ChatGPT, le premier prototype d’intelligence artificielle sous forme de conversation en ligne : « Ecris une lettre aux militants démocrates pour lever des fonds en vue de la campagne présidentielle de Joe Biden en 2024. » La réponse s’afficha sur-le-champ. Beaucoup de poncifs ? Certes. Mais les responsables politiques bien humains en produisent chaque jour sur les antennes.
Dans l’idéal, il faudra repeigner le style de ChatGPT, aiguiser les formules et actualiser l’argumentaire, mais la démonstration est faite : l’intelligence artificielle (IA) sera sans doute un outil inédit dans l’élection présidentielle à venir. « Les ingénieurs républicains et démocrates font la course dans le développement d’outils exploitant l’IA afin de rendre la publicité plus efficace, de s’engager dans l’analyse prédictive du comportement populaire, de produire du contenu de plus en plus personnalisé et de découvrir de nouveaux modèles dans les montagnes de données électorales », résumait le New York Times dans un article passionnant publié le 28 mars. On y apprenait notamment que le Comité national démocrate utilisait déjà l’IA pour rédiger des brouillons, corrigés ensuite par des mains humaines.
Les stagiaires employés par les équipes de campagne pour des tâches subalternes et souvent répétitives ont du souci à se faire : les ordinateurs risquent de les remplacer, en toute autonomie, grâce à leur capacité d’apprentissage. Mais cette intrusion de l’IA dans la politique est surtout lourde de menaces pour la santé du débat public, déjà très abîmé par les deux derniers cycles présidentiels. On connaît, au sein du monde MAGA (« Make America great again », le slogan de Donald Trump), la tendance à rejeter des faits établis, à ne pas reconnaître une expertise (scientifique ou médicale), à succomber aux théories conspirationnistes. Cette érosion de la vérité, renvoyant chacun à ses seules convictions en carton, risque de s’accroître dans des proportions effrayantes avec l’IA.
Thales a tranché: le groupe français « n’appliquera pas l’IA dans tout ce qui est létal (même) si les clients le demandent », a affirmé son PDG. Pas question de « donner de l’autonomie à un système d’armes pour que de lui-même il puisse décider de tuer ou pas », a-t-il insisté.
Face au développement rapide de l’intelligence artificielle (IA), il est urgent que la communauté internationale se dote d’un cadre réglementaire fort pour proscrire la création de « robots tueurs » autonomes, a plaidé jeudi le PDG du groupe technologique français Thales, Patrice Caine.
« Il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous » en ce qui concerne l’application de l’IA au domaine de l’armement, a fait valoir à l’AFP M. Caine.