intelligence artificielle
Face aux défis de l’IA, le manifeste de Léon XIV pour un sursaut de l’humain

L’Église catholique enrichit ses orientations et précise sa pensée sur la révolution de l’IA. Dans un dense message pour la 60e journée mondiale des communications sociales, paru le 24 janvier, fête de saint François de Sales, patron des journalistes, Léon XIV a évoqué l’immense défi anthropologique soulevé par les systèmes d’intelligence artificielle. Le Pape plaide pour une alphabétisation numérique d’ampleur afin d’y faire face sans voir se consumer la civilisation humaine sous nos yeux.
Delphine Allaire – Cité du Vatican
Préserver les voix et les visages humains. C’est en partant de l’identité incarnée de la personne humaine, caractéristique singulière et «sacrée», que Léon XIV a développé les enjeux anthropologiques sous-jacents à la révolution récente de l’IA, scrutée depuis plusieurs années au Vatican. Après de nombreuses prises de parole sur la technologie numérique, le Pape américain, diplômé en mathématiques et en philosophie, alerte dans ce texte sur le risque d’une modification radicale de certains des piliers fondamentaux de la civilisation humaine, en commençant par le niveau «le plus profond de la communication» qu’est celui de la relation entre les êtres humains. Car «nous ne sommes pas une espèce faite d’algorithmes biochimiques prédéfinis».
L’effondrement cognitif
Léon XIV cible d’abord le système de récompense émotionnelle intrinsèque aux réseaux sociaux alimentés par les algorithmes. Les expressions humaines qui nécessitent plus de temps, comme l’effort de compréhension et la réflexion, en sortent pénalisées. «En enfermant des groupes de personnes dans des bulles de consensus facile et d’indignation facile, ces algorithmes affaiblissent la capacité d’écoute et de pensée critique et augmentent la polarisation sociale», regrette le Pape, vilipendant de surcroît «la confiance naïve et acritique» dans l’intelligence artificielle, lorsqu’elle est considérée comme une «amie» omnisciente, dispensatrice de toutes les informations, archive de toutes les mémoires, «oracle» de tous les conseils. «Tout cela peut encore affaiblir notre capacité à penser de manière analytique et créative, à comprendre les significations, à distinguer la syntaxe de la sémantique», a-t-il ajouté.
Créativité et génie humain, la grande régression
Ainsi, en dépit des nombreuses tâches d’assistance fournie par l’outil IA, se soustraire à l’effort de réflexion, «en se contentant d’une compilation statistique artificielle», risque bien à long terme d’éroder nos capacités cognitives, émotionnelles et communicatives. Léon XIV cite pour preuve le risque de démantèlement des industries créatives par une IA ayant pris le contrôle de la production de textes, de musique et de vidéos. L’homme devenant un simple consommateur passif «de pensées non réfléchies, de produits anonymes, sans paternité, sans amour»; tandis que les chefs-d’œuvre du génie humain dans le domaine de la musique, de l’art et de la littérature sont réduits «à un simple terrain d’entraînement pour les machines». Pour Léon XIV, renoncer au processus créatif et céder nos fonctions mentales et notre imagination aux machines revient aussi à enterrer les talents reçus afin de grandir en tant que personnes dans notre relation avec Dieu et les autres, revient «à cacher notre visage et à faire taire notre voix».
Être ou faire semblant: simulation des relations et de la réalité
Outre ce péril d’affadissement intellectuel, l’évêque de Rome met en garde contre les anthropomorphisations trompeuses des machines, autre terrain de vigilance. Léon XIV vise les «bots» (robots) et autres «influenceurs virtuels» particulièrement efficaces «dans la persuasion occulte», grâce à une optimisation continue de l’interaction personnalisée. «Cette anthropomorphisation, qui peut même être amusante, est en même temps trompeuse, surtout pour les personnes les plus vulnérables», souligne-t-il. «Les chatbots rendus excessivement ‘’affectueux’’, en plus d’être toujours présents et disponibles, peuvent devenir les architectes cachés de nos états émotionnels et ainsi envahir et occuper la sphère intime des personnes.»
Un très illusoire monde de miroirs Lire la suite »
Pourquoi l’Intelligence Artificielle pourrait « MENACER » la Science ,
Vous savez, il y a une question qui me hante depuis quelque temps. Une question que la plupart des gens ne prennent pas le temps de considérer vraiment. On nous dit que l’intelligence artificielle va révolutionner la science. Qu’elle va accélérer les découvertes, résoudre des problèmes que nous n’arrivons pas à résoudre.
Mais voici ce qui m’intrigue. Quand on regarde vraiment ce que cela implique, quand on examine la nature même de ce que nous appelons la science, on commence à se poser une question très inconfortable. L’intelligence artificielle pourrait-elle menacer la science elle-même ?
Avant que vous pensiez que je suis un technophobe, laissez-moi être clair. Je suis physicien. Je travaille au Commissariat à l’énergie atomique. Je crois en l’évidence. Je crois aux mathématiques. Je crois à la méthode scientifique.
Et c’est précisément pour cela que cette question me fascine. Parce que quand on fait les calculs, quand on examine les défis philosophiques, on se rend compte de quelque chose de troublant. L’IA peut prédire, mais peut-elle vraiment comprendre ?
« l’IA va s’échapper et nous tuer » : L’interview CHOC du Dr Kaku
« … le monde du futur sera semblable à la mythologie, un monde de « dieux », nos arrières-arrières-arrières petits-enfants vivront dans un monde où nous pourrons contrôler la vie … »
Elon Musk: « le monstre IA qui changera l’humanité »
00:00 Elon Musk vient de créer le PLUS PUISSANT superordinateur au monde
00:49 Un BUNKER SECRET au coeur du Tennessee
01:26 100 000 cartes graphiques à 45 000€ pièce
02:21 À L’INTÉRIEUR du monstre : les 4 salles secrètes de Colossus
03:17 Comment refroidir la bête qui pourrait faire fondre une ville
04:44 Un design unique qui fait trembler la concurrence
05:50 Des EXAOCTETS de données : un stockage plus grand que tout Internet
06:54 Le génie d’Elon : Des batteries Tesla pour une puissance DÉMESURÉE
08:52 GROK : L’IA qui voit tout et comprend tout
09:55 Les CHIFFRES VERTIGINEUX : Des milliards investis dans le projet
11:55 Le VÉRITABLE OBJECTIF : Créer une IA plus intelligente que l’humanité
13:05 Une course contre la montre : Elon Musk va-t-il sauver ou détruire l’humanité ?
L’IA « PROGRAMMABLE LIFE » a simulé 500 millions d’années d’évolution pour créer des protéines
Le gouverneur de Californie met son veto à la loi sur la sécurité de l’IA
Le texte rendait les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.

Jusqu’à la dernière minute, les deux camps ont fait campagne dans la Silicon Valley. Dimanche soir 29 septembre, le gouverneur Gavin Newsom a tranché : il a mis son veto à un projet de loi qui visait à imposer les garde-fous les plus stricts aux grands modèles d’intelligence artificielle aux Etats-Unis.
Le texte SB 1047, ou « Loi pour une innovation sûre dans les modèles d’IA pionniers », avait divisé le monde des technologies, ainsi que la classe politique californienne. Bien qu’il ne soit pas aussi exigeant que la réglementation européenne, il rendait les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.
Il exigeait qu’elles intègrent un « interrupteur d’arrêt » (kill switch) pour désactiver leurs systèmes s’ils devenaient incontrôlables et causaient des dommages majeurs, tels que des pertes massives en vies humaines ou des dégâts matériels dépassant 500 millions de dollars (448 millions d’euros). Elon Musk s’y était déclaré favorable, au contraire de Mark Zuckerberg (Meta), de Sam Altman (OpenAI) ou du capital-risqueur pro-Trump Marc Andreessen.
Crainte d’« un effet dissuasif sur l’industrie »
Comme M. Musk, plusieurs des figures historiques de l’IA, à l’instar de Geoffrey Hinton et de Yoshua Bengio, approuvaient le texte. « Nous pensons que les modèles d’IA les plus puissants pourraient bientôt poser des risques graves, tels que l’accès accru aux armes biologiques et les cyberattaques contre les infrastructures essentielles », avait écrit M. Hinton dans une lettre adressée au gouverneur et cosignée par des dizaines d’anciens et actuels employés du secteur de l’IA.
Lors de la conférence annuelle du géant du logiciel Salesforce, le 24 septembre, à San Francisco, M. Newsom avait laissé poindre son scepticisme. D’ordinaire prompt à vanter les initiatives d’avant-garde prises par la Californie, notamment sur le climat ou la défense des consommateurs, il avait regretté que le projet sur la sécurité de l’IA se substitue au débat fédéral sur la question.
Il avait aussi exprimé la crainte qu’il ait « un effet dissuasif sur l’industrie ». « Nous dominons ce domaine, et je ne veux pas perdre cet avantage, » avait-il déclaré, soulignant que trente-deux des plus grandes entreprises d’intelligence artificielle du monde étaient situées en Californie. En matière de risques posés par l’IA, il avait indiqué essayer de s’en tenir à ceux qui sont démontrables par opposition à ceux qui sont hypothétiques. Le projet de loi ciblait les systèmes nécessitant plus de 100 millions de dollars pour être construits. Aucun modèle n’est parvenu à ce seuil, mais les pessimistes pensent qu’il pourrait être atteint rapidement.
Valandresaka mikasika ny « Intelligence artificielle » na « IA »,, Le Caire 23-24 juillet 2024
Anaty vina ny fametrahana ivotoeram-panabeazana ho amin’izany eto Madagasikara tsy ho ela.
Intelligence artificielle: l’être humain peut choisir de ne pas en dépendre
La relation entre l’homme et les technologies numériques, c’est tout l’enjeu du message du Pape pour la 57e journée mondiale de la paix. Il ne s’agit pas de tourner le dos aux avancées offertes par l’intelligence artificielle, mais de ne pas perdre notre capacité de discernement.
Entretien réalisé par Jean-Charles Putzolu – Cité du Vatican
Dans son message pour la 57e Journée mondiale de la paix, axé sur «intelligence artificielle et paix», le Pape souligne que les nouvelles technologies doivent toujours être orientées vers «la recherche de la paix et du bien commun», et qu’elle doivent être «au service du développement intégral des individus et des communautés». Sa réflexion sur l’impact de l’intelligence artificielle pour la paix mondiale est un avertissement contre une mauvaise utilisation de l’IA. Il exhorte la communauté internationale à adopter un traité contraignant pour réglementer le développement et l’utilisation des différentes formes d’intelligence artificielle, et soulève des questions éthiques étroitement liées à ces nouvelles technologies qui révolutionnent l’humanité dans toutes les sphères de la vie, capables du pire comme du meilleur. Ces technologies n’étant pas neutres, mais orientées par les concepteurs d’algorithmes, elles peuvent manipuler l’esprit humain et par là même, alimenter des conflits.
Pour mieux comprendre la relation entre l’homme et la machine, Vatican News s’est entretenu avec Mathieu Guillermin, maitre de conférences à l’université catholique de Lyon. Spécialiste de l’Intelligence artificielle. Son travail porte sur les enjeux philosophiques et éthiques soulevés par les technologies numériques.
Mathieu Guillermin, l’intelligence artificielle ouvre de nouveaux horizons, depuis quelques années, et pose de nouvelles questions, éthiques, philosophiques, et même anthropologiques. L’humain se soumettrait-il à la machine?
On présente souvent les choses sous la forme “la machine va nous faire quelque chose”, mais fondamentalement, la machine reste un ordinateur, et cela ne va pas changer. C’est de la mécanique d’interrupteurs qui ouvre ou ferme ses canaux en fonction de qui est programmé, et nous, on attache de la signification à cela. Mais en réalité, la machine ne veut rien. Il n’est donc pas question d’opposition entre la machine et l’humain. Il est question d’humains qui font des choses avec des machines et ça impacte d’autres humains, pour le meilleur ou pour le pire. Il n’y a pas de machine qui fait quelque chose parce qu’elle le souhaite. Il y a éventuellement des machines qu’on ne maîtrise pas, et qui peuvent donner des “hallucinations”, c’est-à-dire des résultats non désirés, ou des machines qu’on maîtrise très bien.
Donc la façon dont l’algorithme est programmé peut orienter nos choix?
Oui, complètement. Là, il y a un enjeu. C’est une des choses sous-jacentes qu’on ne voit peut-être pas immédiatement dans le lien guerre et paix, mais qui va vraiment très loin. En fait, on crée des petites représentations, en fonction des comportements de la personne. Si une personne se comporte d’une certaine, on peut savoir dans quel état elle se trouve, et on peut, avec des probabilités, déterminer quel peut-être son comportement successif. Ce genre de calcul donne un pouvoir énorme, qui peut être un bon pouvoir. Je suis content qu’on puisse me donner des informations qui vont m’intéresser, mais ça peut très vite déraper vers une offre d’informations qui vont capter mon attention. Ça peut aller jusqu’à de la manipulation mentale. On appelle ça les technologies de la persuasion. Ce n’est pas nouveau avec l’IA, mais l’intelligence artificielle va renforcer ce qu’on peut faire dans ce domaine.
Et est-ce que les opinions publiques ont la capacité d’un correct discernement?
On rejoint vraiment le sujet IA et paix. L’exploitation aussi bien de nos propres biais cognitifs, de la manière dont on pense, dont on réagit, va pouvoir être utilisée pour mieux diffuser des fausses informations ou pour attiser des conflits. C’est vraiment un usage militarisé. Si on exploite le problème des bulles cognitives, qui font qu’on va donner aux gens que ce qui les intéresse et donc au bout d’un moment, vont se former des groupes de gens qui n’ont que certaines informations, d’autres qui en ont d’autres, ça finit par casser l’intelligence collective et le fond commun qu’on pourrait avoir pour se parler en termes de paix ou de tensions. C’est un usage malsain de l’algorithme, et on est totalement dans la thématique intelligence artificielle et paix. En revanche, on pourrait utiliser ces algorithmes pour dire “ok, j’ai un profil de toi, je sais, je détecte à peu près où est ce qu’on va être d’accord et où est ce qu’on ne va pas être d’accord, et du coup je m’appuie là-dessus pour avoir une discussion plus intelligente avec toi”. Alors là, on gagnerait en cohésion et en intelligence collective. Il peut donc y avoir une utilisation saine de cette technologie.
Et en fonction de ça, sur quelles pistes de réflexion peut s’engager le système éducatif?
La première réflexion à développer serait de partir du le monde dans lequel on vit et de qui nous sommes, pour se poser la bonne question : Voulons-nous être capable, ou pas, de conduire telle ou telle action? Cette piste de réflexion peut déterminer à la fois à quoi on se forme et ce que l’on apprend à faire, et parallèlement, où est ce que l’on intègre des algorithmes, ou pas. Pour avoir le bon usage, il faut comprendre pourquoi on fait les choses. Une fois qu’on a ce cadre-là, effectivement, il faudrait revenir à, étant donné que maintenant on peut automatiser beaucoup de choses, donner aux gens, aux élèves et à tout le monde, la capacité de s’orienter dans ce type de choix. Tout cela donne un fond en fait, pour pouvoir être une personne authentique et une personne intelligente.
Le Pape François dit aussi dans son message que l’homme peut perdre le contrôle de lui-même en se confiant totalement à la technique…
La perte de contrôle est déjà là. Elle était là même avant la machine, parce qu’on a une hubris prométhéenne. On a des pouvoirs et on devient esclave de nos pouvoirs, on met en place des choses qui créent des appels d’air et on s’engouffre dedans. C’est là qu’on perd le contrôle sur nous-mêmes. Mais de la même manière que des algorithmes peuvent nous faire réagir d’une certaine façon, sans passer par un minimum de réflexion, un minimum de jugement, un minimum d’exercice de discernement, on perd aussi le contrôle et on met en place des machines qui nous enlèvent de l’autonomie. Or, l’autonomie dont il ne faut pas se priver, c’est notre capacité de faire des choix, et surtout de faire des choix en conscience. Là on défend notre autonomie.
(source: vaticannews.fr)
Le Pape participera à la session du G7 sur l’intelligence artificielle
Le Souverain pontife s’exprimera lors de la session ouverte aux États non membres du sommet du G7, qui se tiendra mi-juin dans les Pouilles au sud de l’Italie. La Salle de presse du Saint-Siège confirme ce vendredi soir l’annonce de la présidente du Conseil. Giorgia Meloni remercie le Saint-Père d’avoir accepté l’invitation de son pays pour apporter «une contribution décisive à la régulation éthique et culturelle de l’intelligence artificielle».

Le Pape François participera au sommet du G7 conduit par l’Italie, qui se tiendra du 13 au 15 juin à Borgo Egnazia, dans les Pouilles. C’est ce qu’a confirmé la Salle de presse du Saint-Siège après l’annonce de la présidente du Conseil italien qui, dans une vidéo, a précisé que le Saint-Père interviendra lors de la session consacrée à l’intelligence artificielle ouverte aux pays non-membres. «C’est la première fois, a précisé Giorgia Meloni, qu’un Souverain pontife intervient au sommet du groupe, auquel participent également les États-Unis, le Canada, la France, le Royaume-Uni, l’Allemagne et le Japon».
Remerciant le Saint-Père d’avoir accepté l’invitation de l’Italie, «sa présence apporte du prestige à notre nation et à tout le G7», Giorgia Meloni explique que le gouvernement italien entend valoriser la contribution du Saint-Siège sur la question de l’intelligence artificielle, en particulier après l' »Appel de Rome pour l’éthique de l’IA en 2020 » (Rome Call for AI Ethics), promu par le conseil pontifical pour la Vie, qui vise «à donner une application concrète au concept d’algoréthique, c’est-à-dire à donner de l’éthique aux algorithmes».
«Je suis convaincue, a-t-elle ajouté, que la présence du Pape apportera une contribution décisive à la définition d’un cadre réglementaire, éthique et culturel pour l’intelligence artificielle, car c’est sur ce terrain, sur le présent et l’avenir de cette technologie que se mesurera à nouveau notre capacité, la capacité de la communauté internationale, à faire ce qu’un autre Pape, saint Jean-Paul II, a rappelé dans son célèbre discours aux Nations unies le 2 octobre 1979, à savoir que l’activité politique, nationale et internationale vient de l’homme, s’exerce par l’homme et est pour l’homme», a encore expliqué la présidente du Conseil italien.
Giorgia Meloni ajoute que l’intelligence artificielle «sera le plus grand défi anthropologique de cette époque», «une technologie qui peut générer de grandes opportunités mais qui comporte aussi d’énormes risques et qui affecte inévitablement les équilibres mondiaux». «Notre engagement, a conclu la dirigeante italienne, est de développer des mécanismes de gouvernance pour s’assurer que l’intelligence artificielle est centrée sur l’homme et contrôlée par l’homme, c’est-à-dire qu’elle maintient l’homme au centre et qu’elle a l’homme comme but ultime».
(source: vaticannews.fr)
Deepfake ou Deep Fake: dangers de l’Intelligence artificielle pour la société humaine
Le deepfake est une technique de manipulation audiovisuelle qui repose sur l’intelligence artificielle et qui permet d’incruster des visages, d’émuler des voix et des discours ou des gestes dans des vidéos déjà existantes. Souvent utilisé dans les pratiques de cyberharcèlement pour produire des vidéos à caractère pornographique, ce trucage numérique consiste à nuire en détournant l’image d’une personne afin de lui prêter des comportements ou des propos qu’elle n’a pas tenus ou qu’elle ne partage pas.
Le deepfake repose sur une technique de Machine Learning qui, à partir d’images déjà fournies
consiste à mettre en compétition deux algorithmes d’apprentissage (Generative Adversarial Network – GAN – soit un réseau antagoniste génératif). Le premier algorithme identifié comme « générateur » va chercher à créer des contrefaçons les plus crédibles possibles. Le second dit « discriminateur » s’applique à détecter les données générées artificiellement le plus efficacement possible.
Au fil du temps, les deux algorithmes se perfectionnent dans leur relation d’amélioration continue pour optimiser le niveau de réalisme des images. À un moment donné, le premier algorithme arrive à produire de fausses images sans que le second ne puisse détecter la supercherie. Peuvent se distinguer aujourd’hui plusieurs techniques de synthèse et de montage pour créer un deepfake : le faceswap (échange de visage), le lipsync (synchronisation des lèvres), le puppeteering (expressions faciales et corporelles), etc.
Ce qu’il faut retenir…
En nous intéressant aux facteurs qui contribuent à la propagation des deepfakes, Trois composantes typiques peuvent être identifiées :
- l’hypervisibilité : si les logiciels de trucage numérique sont aujourd’hui faciles d’utilisation, la réalisation d’une vidéotox doit cependant pouvoir s’appuyer sur un nombre important d’images et de vidéos en ligne pour se rapprocher le plus possible d’un certain réalisme. Cette injonction de visibilité ne peut se dissocier de celle de modernité (le fait d’être en phase avec l’actualité, d’être à la mode, de correspondre à une tendance récente), et contribue considérablement à sa propagation sur la toile. Ainsi, plus la personne est populaire et référencée sur Internet, plus elle est susceptible de faire l’objet d’un deepfake ;
- l’exclusivité : plusieurs études et rapports (Institut Reuters, European Journalism Observatory) montrent que les sources officielles suscitent aujourd’hui une certaine défiance de la part du grand public (crédibilité des journalistes remise en question, moyens d’information traditionnels boudés par les jeunes générations, etc.). Sont au contraire privilégiées sur Internet des sources alternatives qui se focalisent sur la révélation, l’exclusivité, le scoop (comme la source d’un témoin de l’affaire, un proche du dossier, etc.) ;
- l’émotion : un lien fondamental est établi entre l’émotion mémorisable et le pouvoir de l’image. Ainsi une vidéo à caractère sexuel, perçue dans sa dimension transgressive du tabou, est un élément porteur de sensations pour le spectateur. L’évocation de l’interdit procure des émotions contradictoires pour celui qui regarde, entre l’offense faite à son système de valeurs et la réjouissance par procuration à franchir les limites de cet intime. « L’information ne cherche pas ici un savoir ni même un voir, mais un faire-voir susceptible de produire directement un croire, indispensable à l’émotion ».
Une première interprétation du mot deepfake peut être proposée dans la contraction de l’anglais « deep learning », le système d’apprentissage qui utilise l’intelligence artificielle, et de « fake » qui signifie contrefait. Ainsi pourrions-nous traduire ce terme par des contenus trompeurs et spécieux, rendus profondément crédibles grâce à l’intelligence artificielle.
Mais ce terme peut également être directement inspiré du pseudonyme d’un utilisateur du site communautaire et social Reddit « u/deepfake » qui fut le premier à publier en novembre 2017 des vidéos pornographiques dans lesquelles il réussit à remplacer le visage des actrices X par celui de célébrités américaines.
Comme il est nécessaire de disposer d’une assez grande quantité d’images, au départ, pour que l’apprentissage soit vraiment performant, la médiatisation de certaines personnalités hollywoodiennes a malheureusement constitué une base de données privilégiée pour ce faussaire. Ainsi, si la jeune actrice Daisy Ridley fut la première victime de ses hypertrucages, le phénomène prit une réelle ampleur peu de temps après avec la fausse sextape mettant en scène Gal Gadot (connue pour son interprétation de Wonder Woman).
La presse américaine (The New York Times, The Washington Post, The Guardian, etc.) s’est rapidement inquiétée de la popularité massive de ces courtes séquences pornographiques, qui ne se cantonnent plus aujourd’hui à la fabrication de contenus obscènes, mais deviennent au contraire de véritables armes de communication politique.
Que dit le cadre légal…
Ces trucages numériques étant considérés comme des « infox » peuvent relever de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, qui encadre la production et la diffusion de fausses informations.
Cependant, essentiellement destinée à réguler les campagnes électorales, elle s’applique difficilement à la quasi-totalité des deepfakes qui sont de nature sexuelle ou pornographique.
Aussi pour cette catégorie d’hypertrucages peuvent être mobilisés :
- l’article 226-8 du Code pénal qui prévoit un an d’emprisonnement et 15 000 euros d’amende « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » ;
- l’article 226-4-1 du Code pénal qui prévoit que « le fait d’usurper l’identité d’un tiers ou de faire usage d’une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération est puni d’un an d’emprisonnement et de 15 000 euros d’amende ».
Quelques références scientifiques :
- Barre Aurélie, La force intime des images (Tristan, Lancelot et Perceval devant l’image), Littérature, vol. 199, n° 3, 2020, p. 86‑100, [https://doi.org/10.3917/litt.199.0086].
- Bronner Gérald, La démocratie des crédules, Paris, Presses Universitaires de France, coll. « Hors collection », 2013, 360 pages.
- Cazals François, Cazals Chantal, Intelligence artificielle. L’intelligence amplifiée par la technologie, Louvain-la-Neuve, De Boeck Supérieur, coll. « Hors collection Économie/Gestion », 2020, 320 pages.
- Delfino Rebecca A., Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’s Next Tragic Act, Fordham Law Review, vol. 88, n° 3, 2019, p. 887‑938, [https://doi.org/10.3390/jimaging7070108].
- Ducol Claudine, Le scoop : entre le savoir et l’opinion, Communication & langages, n° 111, 1997. p. 4-18.
- Guarnera Luca, Giudice Oliver, Battiato Sebastiano, Fighting Deepfake by Exposing the Convolutional Traces on Images, IEEE Access, vol. 8, n° 20, 2020, p. 165085‑165098, [https://doi.org/10.1109/ACCESS.2020.3023037].
- Langa Jack, DEEPFAKES, REAL CONSEQUENCES: CRAFTING LEGISLATION TO COMBAT THREATS POSED BY DEEPFAKES, Boston University Law Review, vol. 101, n° 2, 2021, p. 761‐801.
- Schick Nina, Deepfakes, The coming Infocalypse, New York, Twelve, 2020, 224 pages.
- Siegel Dennis, Kraetzer Christian, Seidlitz Stefan, Dittmann Jana, Media Forensics Considerations on DeepFake Detection with Hand-Crafted Features, Journal of Imaging, vol. 7, n° 108, 2021, p. 1-29, [https://doi.org/10.3390/jimaging7070108].
- Tétu Jean-François, L’émotion dans les médias : dispositifs, formes et figures, Mots. Les langages du politique, vol. 75, n° 3, 2004, p. 9‑20, [https://doi.org/10.4000/mots.2843].
- Westerlund Mika, The Emergence of Deepfake Technology: A Review, Technology Innovation Management Review, vol. 9, n° 11, 2019, p. 39‑52, [https://doi.org/10.22215/timreview/1282].
(source: una – https://una-editions.fr/deep-fake/ )-