intelligence artificielle

Intelligence artificielle: l’être humain peut choisir de ne pas en dépendre

Publié le Mis à jour le

La relation entre l’homme et les technologies numériques, c’est tout l’enjeu du message du Pape pour la 57e journée mondiale de la paix. Il ne s’agit pas de tourner le dos aux avancées offertes par l’intelligence artificielle, mais de ne pas perdre notre capacité de discernement.

Entretien réalisé par Jean-Charles Putzolu – Cité du Vatican

Dans son message pour la 57e Journée mondiale de la paix, axé sur «intelligence artificielle et paix», le Pape souligne que les nouvelles technologies doivent toujours être orientées vers «la recherche de la paix et du bien commun», et qu’elle doivent être «au service du développement intégral des individus et des communautés». Sa réflexion sur l’impact de l’intelligence artificielle pour la paix mondiale est un avertissement contre une mauvaise utilisation de l’IA. Il exhorte la communauté internationale à adopter un traité contraignant pour réglementer le développement et l’utilisation des différentes formes d’intelligence artificielle, et soulève des questions éthiques étroitement liées à ces nouvelles technologies qui révolutionnent l’humanité dans toutes les sphères de la vie, capables du pire comme du meilleur. Ces technologies n’étant pas neutres, mais orientées par les concepteurs d’algorithmes, elles peuvent manipuler l’esprit humain et par là même, alimenter des conflits.

Pour mieux comprendre la relation entre l’homme et la machine, Vatican News s’est entretenu avec Mathieu Guillermin, maitre de conférences à l’université catholique de Lyon. Spécialiste de l’Intelligence artificielle. Son travail porte sur les enjeux philosophiques et éthiques soulevés par les technologies numériques.

Mathieu Guillermin, l’intelligence artificielle ouvre de nouveaux horizons, depuis quelques années, et pose de nouvelles questions, éthiques, philosophiques, et même anthropologiques. L’humain se soumettrait-il à la machine?

On présente souvent les choses sous la forme “la machine va nous faire quelque chose”, mais fondamentalement, la machine reste un ordinateur, et cela ne va pas changer. C’est de la mécanique d’interrupteurs qui ouvre ou ferme ses canaux en fonction de qui est programmé, et nous, on attache de la signification à cela. Mais en réalité, la machine ne veut rien. Il n’est donc pas question d’opposition entre la machine et l’humain. Il est question d’humains qui font des choses avec des machines et ça impacte d’autres humains, pour le meilleur ou pour le pire. Il n’y a pas de machine qui fait quelque chose parce qu’elle le souhaite. Il y a éventuellement des machines qu’on ne maîtrise pas, et qui peuvent donner des “hallucinations”, c’est-à-dire des résultats non désirés, ou des machines qu’on maîtrise très bien.

Donc la façon dont l’algorithme est programmé peut orienter nos choix?

Oui, complètement. Là, il y a un enjeu. C’est une des choses sous-jacentes qu’on ne voit peut-être pas immédiatement dans le lien guerre et paix, mais qui va vraiment très loin. En fait, on crée des petites représentations, en fonction des comportements de la personne. Si une personne se comporte d’une certaine, on peut savoir dans quel état elle se trouve, et on peut, avec des probabilités, déterminer quel peut-être son comportement successif. Ce genre de calcul donne un pouvoir énorme, qui peut être un bon pouvoir. Je suis content qu’on puisse me donner des informations qui vont m’intéresser, mais ça peut très vite déraper vers une offre d’informations qui vont capter mon attention. Ça peut aller jusqu’à de la manipulation mentale. On appelle ça les technologies de la persuasion. Ce n’est pas nouveau avec l’IA, mais l’intelligence artificielle va renforcer ce qu’on peut faire dans ce domaine.

Et est-ce que les opinions publiques ont la capacité d’un correct discernement?

On rejoint vraiment le sujet IA et paix. L’exploitation aussi bien de nos propres biais cognitifs, de la manière dont on pense, dont on réagit, va pouvoir être utilisée pour mieux diffuser des fausses informations ou pour attiser des conflits. C’est vraiment un usage militarisé. Si on exploite le problème des bulles cognitives, qui font qu’on va donner aux gens que ce qui les intéresse et donc au bout d’un moment, vont se former des groupes de gens qui n’ont que certaines informations, d’autres qui en ont d’autres, ça finit par casser l’intelligence collective et le fond commun qu’on pourrait avoir pour se parler en termes de paix ou de tensions. C’est un usage malsain de l’algorithme, et on est totalement dans la thématique intelligence artificielle et paix. En revanche, on pourrait utiliser ces algorithmes pour dire “ok, j’ai un profil de toi, je sais, je détecte à peu près où est ce qu’on va être d’accord et où est ce qu’on ne va pas être d’accord, et du coup je m’appuie là-dessus pour avoir une discussion plus intelligente avec toi”. Alors là, on gagnerait en cohésion et en intelligence collective. Il peut donc y avoir une utilisation saine de cette technologie.

Et en fonction de ça, sur quelles pistes de réflexion peut s’engager le système éducatif?

La première réflexion à développer serait de partir du le monde dans lequel on vit et de qui nous sommes, pour se poser la bonne question : Voulons-nous être capable, ou pas, de conduire telle ou telle action? Cette piste de réflexion peut déterminer à la fois à quoi on se forme et ce que l’on apprend à faire, et parallèlement, où est ce que l’on intègre des algorithmes, ou pas. Pour avoir le bon usage, il faut comprendre pourquoi on fait les choses. Une fois qu’on a ce cadre-là, effectivement, il faudrait revenir à, étant donné que maintenant on peut automatiser beaucoup de choses, donner aux gens, aux élèves et à tout le monde, la capacité de s’orienter dans ce type de choix. Tout cela donne un fond en fait, pour pouvoir être une personne authentique et une personne intelligente.

Le Pape François dit aussi dans son message que l’homme peut perdre le contrôle de lui-même en se confiant totalement à la technique…

La perte de contrôle est déjà là. Elle était là même avant la machine, parce qu’on a une hubris prométhéenne. On a des pouvoirs et on devient esclave de nos pouvoirs, on met en place des choses qui créent des appels d’air et on s’engouffre dedans. C’est là qu’on perd le contrôle sur nous-mêmes. Mais de la même manière que des algorithmes peuvent nous faire réagir d’une certaine façon, sans passer par un minimum de réflexion, un minimum de jugement, un minimum d’exercice de discernement, on perd aussi le contrôle et on met en place des machines qui nous enlèvent de l’autonomie. Or, l’autonomie dont il ne faut pas se priver, c’est notre capacité de faire des choix, et surtout de faire des choix en conscience. Là on défend notre autonomie.

(source: vaticannews.fr)

 

Le Pape participera à la session du G7 sur l’intelligence artificielle

Publié le

Le Souverain pontife s’exprimera lors de la session ouverte aux États non membres du sommet du G7, qui se tiendra mi-juin dans les Pouilles au sud de l’Italie. La Salle de presse du Saint-Siège confirme ce vendredi soir l’annonce de la présidente du Conseil. Giorgia Meloni remercie le Saint-Père d’avoir accepté l’invitation de son pays pour apporter «une contribution décisive à la régulation éthique et culturelle de l’intelligence artificielle».

Image d’illustration.

Le Pape François participera au sommet du G7 conduit par l’Italie, qui se tiendra du 13 au 15 juin à Borgo Egnazia, dans les Pouilles. C’est ce qu’a confirmé la Salle de presse du Saint-Siège après l’annonce de la présidente du Conseil italien qui, dans une vidéo, a précisé que le Saint-Père interviendra lors de la session consacrée à l’intelligence artificielle ouverte aux pays non-membres. «C’est la première fois, a précisé Giorgia Meloni, qu’un Souverain pontife intervient au sommet du groupe, auquel participent également les États-Unis, le Canada, la France, le Royaume-Uni, l’Allemagne et le Japon».

Remerciant le Saint-Père d’avoir accepté l’invitation de l’Italie, «sa présence apporte du prestige à notre nation et à tout le G7»,  Giorgia Meloni explique que le gouvernement italien entend valoriser la contribution du Saint-Siège sur la question de l’intelligence artificielle, en particulier après l' »Appel de Rome pour l’éthique de l’IA en 2020 » (Rome Call for AI Ethics), promu par le conseil pontifical pour la Vie, qui vise «à donner une application concrète au concept d’algoréthique, c’est-à-dire à donner de l’éthique aux algorithmes».

«Je suis convaincue, a-t-elle ajouté, que la présence du Pape apportera une contribution décisive à la définition d’un cadre réglementaire, éthique et culturel pour l’intelligence artificielle, car c’est sur ce terrain, sur le présent et l’avenir de cette technologie que se mesurera à nouveau notre capacité, la capacité de la communauté internationale, à faire ce qu’un autre Pape, saint Jean-Paul II, a rappelé dans son célèbre discours aux Nations unies le 2 octobre 1979, à savoir que l’activité politique, nationale et internationale vient de l’homme, s’exerce par l’homme et est pour l’homme», a encore expliqué la présidente du Conseil italien.

Giorgia Meloni ajoute que l’intelligence artificielle «sera le plus grand défi anthropologique de cette époque», «une technologie qui peut générer de grandes opportunités mais qui comporte aussi d’énormes risques et qui affecte inévitablement les équilibres mondiaux». «Notre engagement, a conclu la dirigeante italienne, est de développer des mécanismes de gouvernance pour s’assurer que l’intelligence artificielle est centrée sur l’homme et contrôlée par l’homme, c’est-à-dire qu’elle maintient l’homme au centre et qu’elle a l’homme comme but ultime».

(source: vaticannews.fr)

 

 

Pour le créateur de ChatGPT, il faut autant lutter contre les risques de l’IA que contre les guerres nucléaires

Publié le

Dans une tribune de nombreux experts de l’IA, dont Sam Altman, mettent en garde

Bloomberg / Bloomberg via Getty Images Sam Altman, le président de Y Combinator, le en conférence en octobre 2017 en Californie

TECHNOLOGIE – Un groupe de chefs d’entreprise et d’experts, dont Sam Altman, le créateur de ChatGPT, ont averti ce mardi 30 mai dans une déclaration en ligne des menaces d’« extinction » pour l’humanité posées par l’essor de l’intelligence artificielle (IA).

La lutte contre les risques liés à l’IA devrait être « une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires », ont écrit les signataires sur le site internet du Center for AI Safety, une organisation à but non lucratif basée aux États-Unis.

Geoffrey Hinton, considéré comme l’un des pères fondateurs de l’intelligence artificielle (IA) et également signataire de la tribune, avait déjà mis en garde contre ses dangers en quittant début mai son poste au sein du géant Google.

Les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times.

En mars, le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Le déploiement à toute vitesse d’une intelligence artificielle de plus en plus « générale », dotée de capacités cognitives humaines et donc susceptible de bouleverser de nombreux métiers, a été symbolisée par le lancement en mars par OpenAI de GPT-4, une nouvelle version plus puissante de ChatGPT, ouvert au grand public fin 2022.

L’Américain Sam Altman multiplie régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail. La semaine dernière à Paris, il a discuté avec le président Emmanuel Macron de la manière de trouver « le juste équilibre entre protection et impact positif » de cette technologie.

(source: huffingtonpost.fr)

Un discours de Joe Biden, une prière de Donald Trump : l’intrusion effrayante de l’intelligence artificielle en politique

Publié le

Des applications comme ChatGPT devraient constituer un outil inédit pour les équipes de campagne en vue de l’élection présidentielle américaine de 2024. Un recours à l’IA synonyme de menaces pour la qualité du débat public.

ILLUSTRATION « LE MONDE »

Joe Biden écrit : « Ma campagne sera focalisée sur les valeurs qui m’ont guidé au cours de ma carrière : la décence, l’honnêteté, le respect de tous. Je crois que nous devons nous rassembler, en tant que pays, et travailler en vue d’un objectif commun, fait de progrès et d’unité. » Le président ajoute ceci : « Chaque donation, aussi petite soit-elle, nous aidera à bâtir un mouvement sur le terrain qui permettra d’avoir un impact réel sur la vie des Américains. »

Joe Biden n’a jamais écrit cela. Il n’a fallu qu’une poignée de secondes pour adresser une demande élémentaire à ChatGPT, le premier prototype d’intelligence artificielle sous forme de conversation en ligne : « Ecris une lettre aux militants démocrates pour lever des fonds en vue de la campagne présidentielle de Joe Biden en 2024. » La réponse s’afficha sur-le-champ. Beaucoup de poncifs ? Certes. Mais les responsables politiques bien humains en produisent chaque jour sur les antennes.

Dans l’idéal, il faudra repeigner le style de ChatGPT, aiguiser les formules et actualiser l’argumentaire, mais la démonstration est faite : l’intelligence artificielle (IA) sera sans doute un outil inédit dans l’élection présidentielle à venir. « Les ingénieurs républicains et démocrates font la course dans le développement d’outils exploitant l’IA afin de rendre la publicité plus efficace, de s’engager dans l’analyse prédictive du comportement populaire, de produire du contenu de plus en plus personnalisé et de découvrir de nouveaux modèles dans les montagnes de données électorales », résumait le New York Times dans un article passionnant publié le 28 mars. On y apprenait notamment que le Comité national démocrate utilisait déjà l’IA pour rédiger des brouillons, corrigés ensuite par des mains humaines.

Lire aussi : Article réservé à nos abonnés Dans le sillage de ChatGPT, la course à l’intelligence artificielle

Erosion de la vérité

Les stagiaires employés par les équipes de campagne pour des tâches subalternes et souvent répétitives ont du souci à se faire : les ordinateurs risquent de les remplacer, en toute autonomie, grâce à leur capacité d’apprentissage. Mais cette intrusion de l’IA dans la politique est surtout lourde de menaces pour la santé du débat public, déjà très abîmé par les deux derniers cycles présidentiels. On connaît, au sein du monde MAGA (« Make America great again », le slogan de Donald Trump), la tendance à rejeter des faits établis, à ne pas reconnaître une expertise (scientifique ou médicale), à succomber aux théories conspirationnistes. Cette érosion de la vérité, renvoyant chacun à ses seules convictions en carton, risque de s’accroître dans des proportions effrayantes avec l’IA.

(source: lemonde.fr)

Elon Musk et Tesla dévoilent Optimus, un robot humanoïde qui « transformera la civilisation »

Publié le Mis à jour le

Elon Musk a présenté son robot humanoïde Optimus ce vendredi 30 septembre à Palo Alto, près de San Francisco en Californie.

TECHNOLOGIES – « Un avenir d’abondance, un avenir où il n’y a pas de pauvreté, où les gens auront ce qu’ils veulent en termes de produits et de services ». Elon Musk ne produit pas que des voitures électriques, des fusées ou des implants cérébraux, il veut aussi « transformer la civilisation » grâce à la robotique. En plus de Tesla, SpaceX et Neuralink, il compte en effet également devenir « le leader de l’intelligence artificielle ».

Ce vendredi 30 septembre, le multimilliardaire a présenté en grande pompe deux prototypes du robot humanoïde Optimus, que son entreprise Tesla espère produire un jour par « millions ». « Bumble C », une première version du robot, est arrivé en marchant précautionneusement sur la scène californienne où avait lieu la conférence annuelle « Tesla AI Day » sur les progrès en intelligence artificielle du fabricant de voitures électriques.

Le robot a esquissé un salut de la main et une vidéo l’a montré apportant un colis à un employé et arrosant des plantes. Des employés ont aussi amené sur des roulettes un prototype plus avancé d’Optimus, avec moins de câbles apparents mais encore incapable de marcher tout seul.

(…lire la suite)