intelligence artificielle

Elon Musk: « le monstre IA qui changera l’humanité »

Publié le Mis à jour le

00:00 Elon Musk vient de créer le PLUS PUISSANT superordinateur au monde
00:49 Un BUNKER SECRET au coeur du Tennessee
01:26 100 000 cartes graphiques à 45 000€ pièce
02:21 À L’INTÉRIEUR du monstre : les 4 salles secrètes de Colossus
03:17 Comment refroidir la bête qui pourrait faire fondre une ville
04:44 Un design unique qui fait trembler la concurrence
05:50 Des EXAOCTETS de données : un stockage plus grand que tout Internet
06:54 Le génie d’Elon : Des batteries Tesla pour une puissance DÉMESURÉE
08:52 GROK : L’IA qui voit tout et comprend tout
09:55 Les CHIFFRES VERTIGINEUX : Des milliards investis dans le projet
11:55 Le VÉRITABLE OBJECTIF : Créer une IA plus intelligente que l’humanité
13:05 Une course contre la montre : Elon Musk va-t-il sauver ou détruire l’humanité ?



L’IA « PROGRAMMABLE LIFE » a simulé 500 millions d’années d’évolution pour créer des protéines

Le gouverneur de Californie met son veto à la loi sur la sécurité de l’IA

Publié le Mis à jour le

Le texte rendait les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.

Le gouverneur de Californie, Gavin Newsom, lors d’une conférence à Los Angeles, le 21 mars 2024. DAMIAN DOVARGANES / AP

Jusqu’à la dernière minute, les deux camps ont fait campagne dans la Silicon Valley. Dimanche soir 29 septembre, le gouverneur Gavin Newsom a tranché : il a mis son veto à un projet de loi qui visait à imposer les garde-fous les plus stricts aux grands modèles d’intelligence artificielle aux Etats-Unis.

Le texte SB 1047, ou « Loi pour une innovation sûre dans les modèles d’IA pionniers », avait divisé le monde des technologies, ainsi que la classe politique californienne. Bien qu’il ne soit pas aussi exigeant que la réglementation européenne, il rendait les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.

Il exigeait qu’elles intègrent un « interrupteur d’arrêt » (kill switch) pour désactiver leurs systèmes s’ils devenaient incontrôlables et causaient des dommages majeurs, tels que des pertes massives en vies humaines ou des dégâts matériels dépassant 500 millions de dollars (448 millions d’euros). Elon Musk s’y était déclaré favorable, au contraire de Mark Zuckerberg (Meta), de Sam Altman (OpenAI) ou du capital-risqueur pro-Trump Marc Andreessen.

Crainte d’« un effet dissuasif sur l’industrie »

Comme M. Musk, plusieurs des figures historiques de l’IA, à l’instar de Geoffrey Hinton et de Yoshua Bengio, approuvaient le texte. « Nous pensons que les modèles d’IA les plus puissants pourraient bientôt poser des risques graves, tels que l’accès accru aux armes biologiques et les cyberattaques contre les infrastructures essentielles », avait écrit M. Hinton dans une lettre adressée au gouverneur et cosignée par des dizaines d’anciens et actuels employés du secteur de l’IA.

Lors de la conférence annuelle du géant du logiciel Salesforce, le 24 septembre, à San Francisco, M. Newsom avait laissé poindre son scepticisme. D’ordinaire prompt à vanter les initiatives d’avant-garde prises par la Californie, notamment sur le climat ou la défense des consommateurs, il avait regretté que le projet sur la sécurité de l’IA se substitue au débat fédéral sur la question.


Il avait aussi exprimé la crainte qu’il ait « un effet dissuasif sur l’industrie ». « Nous dominons ce domaine, et je ne veux pas perdre cet avantage, » avait-il déclaré, soulignant que trente-deux des plus grandes entreprises d’intelligence artificielle du monde étaient situées en Californie. En matière de risques posés par l’IA, il avait indiqué essayer de s’en tenir à ceux qui sont démontrables par opposition à ceux qui sont hypothétiques. Le projet de loi ciblait les systèmes nécessitant plus de 100 millions de dollars pour être construits. Aucun modèle n’est parvenu à ce seuil, mais les pessimistes pensent qu’il pourrait être atteint rapidement.

Intelligence artificielle: l’être humain peut choisir de ne pas en dépendre

Publié le Mis à jour le

La relation entre l’homme et les technologies numériques, c’est tout l’enjeu du message du Pape pour la 57e journée mondiale de la paix. Il ne s’agit pas de tourner le dos aux avancées offertes par l’intelligence artificielle, mais de ne pas perdre notre capacité de discernement.

Entretien réalisé par Jean-Charles Putzolu – Cité du Vatican

Dans son message pour la 57e Journée mondiale de la paix, axé sur «intelligence artificielle et paix», le Pape souligne que les nouvelles technologies doivent toujours être orientées vers «la recherche de la paix et du bien commun», et qu’elle doivent être «au service du développement intégral des individus et des communautés». Sa réflexion sur l’impact de l’intelligence artificielle pour la paix mondiale est un avertissement contre une mauvaise utilisation de l’IA. Il exhorte la communauté internationale à adopter un traité contraignant pour réglementer le développement et l’utilisation des différentes formes d’intelligence artificielle, et soulève des questions éthiques étroitement liées à ces nouvelles technologies qui révolutionnent l’humanité dans toutes les sphères de la vie, capables du pire comme du meilleur. Ces technologies n’étant pas neutres, mais orientées par les concepteurs d’algorithmes, elles peuvent manipuler l’esprit humain et par là même, alimenter des conflits.

Pour mieux comprendre la relation entre l’homme et la machine, Vatican News s’est entretenu avec Mathieu Guillermin, maitre de conférences à l’université catholique de Lyon. Spécialiste de l’Intelligence artificielle. Son travail porte sur les enjeux philosophiques et éthiques soulevés par les technologies numériques.

Mathieu Guillermin, l’intelligence artificielle ouvre de nouveaux horizons, depuis quelques années, et pose de nouvelles questions, éthiques, philosophiques, et même anthropologiques. L’humain se soumettrait-il à la machine?

On présente souvent les choses sous la forme “la machine va nous faire quelque chose”, mais fondamentalement, la machine reste un ordinateur, et cela ne va pas changer. C’est de la mécanique d’interrupteurs qui ouvre ou ferme ses canaux en fonction de qui est programmé, et nous, on attache de la signification à cela. Mais en réalité, la machine ne veut rien. Il n’est donc pas question d’opposition entre la machine et l’humain. Il est question d’humains qui font des choses avec des machines et ça impacte d’autres humains, pour le meilleur ou pour le pire. Il n’y a pas de machine qui fait quelque chose parce qu’elle le souhaite. Il y a éventuellement des machines qu’on ne maîtrise pas, et qui peuvent donner des “hallucinations”, c’est-à-dire des résultats non désirés, ou des machines qu’on maîtrise très bien.

Donc la façon dont l’algorithme est programmé peut orienter nos choix?

Oui, complètement. Là, il y a un enjeu. C’est une des choses sous-jacentes qu’on ne voit peut-être pas immédiatement dans le lien guerre et paix, mais qui va vraiment très loin. En fait, on crée des petites représentations, en fonction des comportements de la personne. Si une personne se comporte d’une certaine, on peut savoir dans quel état elle se trouve, et on peut, avec des probabilités, déterminer quel peut-être son comportement successif. Ce genre de calcul donne un pouvoir énorme, qui peut être un bon pouvoir. Je suis content qu’on puisse me donner des informations qui vont m’intéresser, mais ça peut très vite déraper vers une offre d’informations qui vont capter mon attention. Ça peut aller jusqu’à de la manipulation mentale. On appelle ça les technologies de la persuasion. Ce n’est pas nouveau avec l’IA, mais l’intelligence artificielle va renforcer ce qu’on peut faire dans ce domaine.

Et est-ce que les opinions publiques ont la capacité d’un correct discernement?

On rejoint vraiment le sujet IA et paix. L’exploitation aussi bien de nos propres biais cognitifs, de la manière dont on pense, dont on réagit, va pouvoir être utilisée pour mieux diffuser des fausses informations ou pour attiser des conflits. C’est vraiment un usage militarisé. Si on exploite le problème des bulles cognitives, qui font qu’on va donner aux gens que ce qui les intéresse et donc au bout d’un moment, vont se former des groupes de gens qui n’ont que certaines informations, d’autres qui en ont d’autres, ça finit par casser l’intelligence collective et le fond commun qu’on pourrait avoir pour se parler en termes de paix ou de tensions. C’est un usage malsain de l’algorithme, et on est totalement dans la thématique intelligence artificielle et paix. En revanche, on pourrait utiliser ces algorithmes pour dire “ok, j’ai un profil de toi, je sais, je détecte à peu près où est ce qu’on va être d’accord et où est ce qu’on ne va pas être d’accord, et du coup je m’appuie là-dessus pour avoir une discussion plus intelligente avec toi”. Alors là, on gagnerait en cohésion et en intelligence collective. Il peut donc y avoir une utilisation saine de cette technologie.

Et en fonction de ça, sur quelles pistes de réflexion peut s’engager le système éducatif?

La première réflexion à développer serait de partir du le monde dans lequel on vit et de qui nous sommes, pour se poser la bonne question : Voulons-nous être capable, ou pas, de conduire telle ou telle action? Cette piste de réflexion peut déterminer à la fois à quoi on se forme et ce que l’on apprend à faire, et parallèlement, où est ce que l’on intègre des algorithmes, ou pas. Pour avoir le bon usage, il faut comprendre pourquoi on fait les choses. Une fois qu’on a ce cadre-là, effectivement, il faudrait revenir à, étant donné que maintenant on peut automatiser beaucoup de choses, donner aux gens, aux élèves et à tout le monde, la capacité de s’orienter dans ce type de choix. Tout cela donne un fond en fait, pour pouvoir être une personne authentique et une personne intelligente.

Le Pape François dit aussi dans son message que l’homme peut perdre le contrôle de lui-même en se confiant totalement à la technique…

La perte de contrôle est déjà là. Elle était là même avant la machine, parce qu’on a une hubris prométhéenne. On a des pouvoirs et on devient esclave de nos pouvoirs, on met en place des choses qui créent des appels d’air et on s’engouffre dedans. C’est là qu’on perd le contrôle sur nous-mêmes. Mais de la même manière que des algorithmes peuvent nous faire réagir d’une certaine façon, sans passer par un minimum de réflexion, un minimum de jugement, un minimum d’exercice de discernement, on perd aussi le contrôle et on met en place des machines qui nous enlèvent de l’autonomie. Or, l’autonomie dont il ne faut pas se priver, c’est notre capacité de faire des choix, et surtout de faire des choix en conscience. Là on défend notre autonomie.

(source: vaticannews.fr)

 

Le Pape participera à la session du G7 sur l’intelligence artificielle

Publié le

Le Souverain pontife s’exprimera lors de la session ouverte aux États non membres du sommet du G7, qui se tiendra mi-juin dans les Pouilles au sud de l’Italie. La Salle de presse du Saint-Siège confirme ce vendredi soir l’annonce de la présidente du Conseil. Giorgia Meloni remercie le Saint-Père d’avoir accepté l’invitation de son pays pour apporter «une contribution décisive à la régulation éthique et culturelle de l’intelligence artificielle».

Image d’illustration.

Le Pape François participera au sommet du G7 conduit par l’Italie, qui se tiendra du 13 au 15 juin à Borgo Egnazia, dans les Pouilles. C’est ce qu’a confirmé la Salle de presse du Saint-Siège après l’annonce de la présidente du Conseil italien qui, dans une vidéo, a précisé que le Saint-Père interviendra lors de la session consacrée à l’intelligence artificielle ouverte aux pays non-membres. «C’est la première fois, a précisé Giorgia Meloni, qu’un Souverain pontife intervient au sommet du groupe, auquel participent également les États-Unis, le Canada, la France, le Royaume-Uni, l’Allemagne et le Japon».

Remerciant le Saint-Père d’avoir accepté l’invitation de l’Italie, «sa présence apporte du prestige à notre nation et à tout le G7»,  Giorgia Meloni explique que le gouvernement italien entend valoriser la contribution du Saint-Siège sur la question de l’intelligence artificielle, en particulier après l' »Appel de Rome pour l’éthique de l’IA en 2020 » (Rome Call for AI Ethics), promu par le conseil pontifical pour la Vie, qui vise «à donner une application concrète au concept d’algoréthique, c’est-à-dire à donner de l’éthique aux algorithmes».

«Je suis convaincue, a-t-elle ajouté, que la présence du Pape apportera une contribution décisive à la définition d’un cadre réglementaire, éthique et culturel pour l’intelligence artificielle, car c’est sur ce terrain, sur le présent et l’avenir de cette technologie que se mesurera à nouveau notre capacité, la capacité de la communauté internationale, à faire ce qu’un autre Pape, saint Jean-Paul II, a rappelé dans son célèbre discours aux Nations unies le 2 octobre 1979, à savoir que l’activité politique, nationale et internationale vient de l’homme, s’exerce par l’homme et est pour l’homme», a encore expliqué la présidente du Conseil italien.

Giorgia Meloni ajoute que l’intelligence artificielle «sera le plus grand défi anthropologique de cette époque», «une technologie qui peut générer de grandes opportunités mais qui comporte aussi d’énormes risques et qui affecte inévitablement les équilibres mondiaux». «Notre engagement, a conclu la dirigeante italienne, est de développer des mécanismes de gouvernance pour s’assurer que l’intelligence artificielle est centrée sur l’homme et contrôlée par l’homme, c’est-à-dire qu’elle maintient l’homme au centre et qu’elle a l’homme comme but ultime».

(source: vaticannews.fr)

 

 

Deepfake ou Deep Fake: dangers de l’Intelligence artificielle pour la société humaine

Publié le Mis à jour le


Le deepfake est une technique de manipulation audiovisuelle qui repose sur l’intelligence artificielle et qui permet d’incruster des visages, d’émuler des voix et des discours ou des gestes dans des vidéos déjà existantes. Souvent utilisé dans les pratiques de cyberharcèlement pour produire des vidéos à caractère pornographique, ce trucage numérique consiste à nuire en détournant l’image d’une personne afin de lui prêter des comportements ou des propos qu’elle n’a pas tenus ou qu’elle ne partage pas.

Le deepfake repose sur une technique de Machine Learning qui, à partir d’images déjà fournies
consiste à mettre en compétition deux algorithmes d’apprentissage (Generative Adversarial Network – GAN – soit un réseau antagoniste génératif). Le premier algorithme identifié comme « générateur » va chercher à créer des contrefaçons les plus crédibles possibles. Le second dit « discriminateur » s’applique à détecter les données générées artificiellement le plus efficacement possible.

Au fil du temps, les deux algorithmes se perfectionnent dans leur relation d’amélioration continue pour optimiser le niveau de réalisme des images. À un moment donné, le premier algorithme arrive à produire de fausses images sans que le second ne puisse détecter la supercherie. Peuvent se distinguer aujourd’hui plusieurs techniques de synthèse et de montage pour créer un deepfake : le faceswap (échange de visage), le lipsync (synchronisation des lèvres), le puppeteering (expressions faciales et corporelles), etc.

En nous intéressant aux facteurs qui contribuent à la propagation des deepfakes, Trois composantes typiques peuvent être identifiées :

  • l’hypervisibilité : si les logiciels de trucage numérique sont aujourd’hui faciles d’utilisation, la réalisation d’une vidéotox doit cependant pouvoir s’appuyer sur un nombre important d’images et de vidéos en ligne pour se rapprocher le plus possible d’un certain réalisme. Cette injonction de visibilité ne peut se dissocier de celle de modernité (le fait d’être en phase avec l’actualité, d’être à la mode, de correspondre à une tendance récente), et contribue considérablement à sa propagation sur la toile. Ainsi, plus la personne est populaire et référencée sur Internet, plus elle est susceptible de faire l’objet d’un deepfake ;
  • l’exclusivité : plusieurs études et rapports (Institut Reuters, European Journalism Observatory) montrent que les sources officielles suscitent aujourd’hui une certaine défiance de la part du grand public (crédibilité des journalistes remise en question, moyens d’information traditionnels boudés par les jeunes générations, etc.). Sont au contraire privilégiées sur Internet des sources alternatives qui se focalisent sur la révélation, l’exclusivité, le scoop (comme la source d’un témoin de l’affaire, un proche du dossier, etc.) ;
  • l’émotion : un lien fondamental est établi entre l’émotion mémorisable et le pouvoir de l’image. Ainsi une vidéo à caractère sexuel, perçue dans sa dimension transgressive du tabou, est un élément porteur de sensations pour le spectateur. L’évocation de l’interdit procure des émotions contradictoires pour celui qui regarde, entre l’offense faite à son système de valeurs et la réjouissance par procuration à franchir les limites de cet intime. « L’information ne cherche pas ici un savoir ni même un voir, mais un faire-voir susceptible de produire directement un croire, indispensable à l’émotion ».

Une première interprétation du mot deepfake peut être proposée dans la contraction de l’anglais « deep learning », le système d’apprentissage qui utilise l’intelligence artificielle, et de « fake » qui signifie contrefait. Ainsi pourrions-nous traduire ce terme par des contenus trompeurs et spécieux, rendus profondément crédibles grâce à l’intelligence artificielle.

Mais ce terme peut également être directement inspiré du pseudonyme d’un utilisateur du site communautaire et social Reddit « u/deepfake » qui fut le premier à publier en novembre 2017 des vidéos pornographiques dans lesquelles il réussit à remplacer le visage des actrices X par celui de célébrités américaines.

Comme il est nécessaire de disposer d’une assez grande quantité d’images, au départ, pour que l’apprentissage soit vraiment performant, la médiatisation de certaines personnalités hollywoodiennes a malheureusement constitué une base de données privilégiée pour ce faussaire. Ainsi, si la jeune actrice Daisy Ridley fut la première victime de ses hypertrucages, le phénomène prit une réelle ampleur peu de temps après avec la fausse sextape mettant en scène Gal Gadot (connue pour son interprétation de Wonder Woman).

La presse américaine (The New York Times, The Washington Post, The Guardian, etc.) s’est rapidement inquiétée de la popularité massive de ces courtes séquences pornographiques, qui ne se cantonnent plus aujourd’hui à la fabrication de contenus obscènes, mais deviennent au contraire de véritables armes de communication politique.

 

Ces trucages numériques étant considérés comme des « infox » peuvent relever de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, qui encadre la production et la diffusion de fausses informations.

Cependant, essentiellement destinée à réguler les campagnes électorales, elle s’applique difficilement à la quasi-totalité des deepfakes qui sont de nature sexuelle ou pornographique.

Aussi pour cette catégorie d’hypertrucages peuvent être mobilisés :

  • l’article 226-8 du Code pénal qui prévoit un an d’emprisonnement et 15 000 euros d’amende « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » ;
  • l’article 226-4-1 du Code pénal qui prévoit que « le fait d’usurper l’identité d’un tiers ou de faire usage d’une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération est puni d’un an d’emprisonnement et de 15 000 euros d’amende ».

Quelques références scientifiques :

  • Barre Aurélie, La force intime des images (Tristan, Lancelot et Perceval devant l’image), Littérature, vol. 199, n° 3, 2020, p. 86‑100, [https://doi.org/10.3917/litt.199.0086].
  • Bronner Gérald, La démocratie des crédules, Paris, Presses Universitaires de France, coll. « Hors collection », 2013, 360 pages.
  • Cazals François, Cazals Chantal, Intelligence artificielle. L’intelligence amplifiée par la technologie, Louvain-la-Neuve, De Boeck Supérieur, coll. « Hors collection Économie/Gestion », 2020, 320 pages.
  • Delfino Rebecca A., Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’s Next Tragic Act, Fordham Law Review, vol. 88,  n° 3, 2019, p. 887‑938, [https://doi.org/10.3390/jimaging7070108].
  • Ducol Claudine, Le scoop : entre le savoir et l’opinion, Communication & langages, n° 111, 1997. p. 4-18.
  • Guarnera Luca, Giudice Oliver, Battiato Sebastiano, Fighting Deepfake by Exposing the Convolutional Traces on Images, IEEE Access, vol. 8, n° 20, 2020, p. 165085‑165098, [https://doi.org/10.1109/ACCESS.2020.3023037].
  • Langa Jack, DEEPFAKES, REAL CONSEQUENCES: CRAFTING LEGISLATION TO COMBAT THREATS POSED BY DEEPFAKES, Boston University Law Review, vol. 101, n° 2, 2021, p. 761‐801.
  • Schick Nina, Deepfakes, The coming Infocalypse, New York, Twelve, 2020, 224 pages.
  • Siegel Dennis, Kraetzer Christian, Seidlitz Stefan, Dittmann Jana, Media Forensics Considerations on DeepFake Detection with Hand-Crafted Features, Journal of Imaging, vol. 7, n° 108, 2021, p. 1-29, [https://doi.org/10.3390/jimaging7070108].
  • Tétu Jean-François, L’émotion dans les médias : dispositifs, formes et figures, Mots. Les langages du politique, vol. 75, n° 3, 2004, p. 9‑20, [https://doi.org/10.4000/mots.2843].
  • Westerlund Mika, The Emergence of Deepfake Technology: A Review, Technology Innovation Management Review, vol. 9, n° 11, 2019, p. 39‑52, [https://doi.org/10.22215/timreview/1282].

(source: una – https://una-editions.fr/deep-fake/ )-

Pour le créateur de ChatGPT, il faut autant lutter contre les risques de l’IA que contre les guerres nucléaires

Publié le

Dans une tribune de nombreux experts de l’IA, dont Sam Altman, mettent en garde

Bloomberg / Bloomberg via Getty Images Sam Altman, le président de Y Combinator, le en conférence en octobre 2017 en Californie

TECHNOLOGIE – Un groupe de chefs d’entreprise et d’experts, dont Sam Altman, le créateur de ChatGPT, ont averti ce mardi 30 mai dans une déclaration en ligne des menaces d’« extinction » pour l’humanité posées par l’essor de l’intelligence artificielle (IA).

La lutte contre les risques liés à l’IA devrait être « une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires », ont écrit les signataires sur le site internet du Center for AI Safety, une organisation à but non lucratif basée aux États-Unis.

Geoffrey Hinton, considéré comme l’un des pères fondateurs de l’intelligence artificielle (IA) et également signataire de la tribune, avait déjà mis en garde contre ses dangers en quittant début mai son poste au sein du géant Google.

Les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times.

En mars, le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Le déploiement à toute vitesse d’une intelligence artificielle de plus en plus « générale », dotée de capacités cognitives humaines et donc susceptible de bouleverser de nombreux métiers, a été symbolisée par le lancement en mars par OpenAI de GPT-4, une nouvelle version plus puissante de ChatGPT, ouvert au grand public fin 2022.

L’Américain Sam Altman multiplie régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail. La semaine dernière à Paris, il a discuté avec le président Emmanuel Macron de la manière de trouver « le juste équilibre entre protection et impact positif » de cette technologie.

(source: huffingtonpost.fr)

Un discours de Joe Biden, une prière de Donald Trump : l’intrusion effrayante de l’intelligence artificielle en politique

Publié le

Des applications comme ChatGPT devraient constituer un outil inédit pour les équipes de campagne en vue de l’élection présidentielle américaine de 2024. Un recours à l’IA synonyme de menaces pour la qualité du débat public.

ILLUSTRATION « LE MONDE »

Joe Biden écrit : « Ma campagne sera focalisée sur les valeurs qui m’ont guidé au cours de ma carrière : la décence, l’honnêteté, le respect de tous. Je crois que nous devons nous rassembler, en tant que pays, et travailler en vue d’un objectif commun, fait de progrès et d’unité. » Le président ajoute ceci : « Chaque donation, aussi petite soit-elle, nous aidera à bâtir un mouvement sur le terrain qui permettra d’avoir un impact réel sur la vie des Américains. »

Joe Biden n’a jamais écrit cela. Il n’a fallu qu’une poignée de secondes pour adresser une demande élémentaire à ChatGPT, le premier prototype d’intelligence artificielle sous forme de conversation en ligne : « Ecris une lettre aux militants démocrates pour lever des fonds en vue de la campagne présidentielle de Joe Biden en 2024. » La réponse s’afficha sur-le-champ. Beaucoup de poncifs ? Certes. Mais les responsables politiques bien humains en produisent chaque jour sur les antennes.

Dans l’idéal, il faudra repeigner le style de ChatGPT, aiguiser les formules et actualiser l’argumentaire, mais la démonstration est faite : l’intelligence artificielle (IA) sera sans doute un outil inédit dans l’élection présidentielle à venir. « Les ingénieurs républicains et démocrates font la course dans le développement d’outils exploitant l’IA afin de rendre la publicité plus efficace, de s’engager dans l’analyse prédictive du comportement populaire, de produire du contenu de plus en plus personnalisé et de découvrir de nouveaux modèles dans les montagnes de données électorales », résumait le New York Times dans un article passionnant publié le 28 mars. On y apprenait notamment que le Comité national démocrate utilisait déjà l’IA pour rédiger des brouillons, corrigés ensuite par des mains humaines.

Lire aussi : Article réservé à nos abonnés Dans le sillage de ChatGPT, la course à l’intelligence artificielle

Erosion de la vérité

Les stagiaires employés par les équipes de campagne pour des tâches subalternes et souvent répétitives ont du souci à se faire : les ordinateurs risquent de les remplacer, en toute autonomie, grâce à leur capacité d’apprentissage. Mais cette intrusion de l’IA dans la politique est surtout lourde de menaces pour la santé du débat public, déjà très abîmé par les deux derniers cycles présidentiels. On connaît, au sein du monde MAGA (« Make America great again », le slogan de Donald Trump), la tendance à rejeter des faits établis, à ne pas reconnaître une expertise (scientifique ou médicale), à succomber aux théories conspirationnistes. Cette érosion de la vérité, renvoyant chacun à ses seules convictions en carton, risque de s’accroître dans des proportions effrayantes avec l’IA.

(source: lemonde.fr)