IA

Le Pape participera à la session du G7 sur l’intelligence artificielle

Publié le

Le Souverain pontife s’exprimera lors de la session ouverte aux États non membres du sommet du G7, qui se tiendra mi-juin dans les Pouilles au sud de l’Italie. La Salle de presse du Saint-Siège confirme ce vendredi soir l’annonce de la présidente du Conseil. Giorgia Meloni remercie le Saint-Père d’avoir accepté l’invitation de son pays pour apporter «une contribution décisive à la régulation éthique et culturelle de l’intelligence artificielle».

Image d’illustration.

Le Pape François participera au sommet du G7 conduit par l’Italie, qui se tiendra du 13 au 15 juin à Borgo Egnazia, dans les Pouilles. C’est ce qu’a confirmé la Salle de presse du Saint-Siège après l’annonce de la présidente du Conseil italien qui, dans une vidéo, a précisé que le Saint-Père interviendra lors de la session consacrée à l’intelligence artificielle ouverte aux pays non-membres. «C’est la première fois, a précisé Giorgia Meloni, qu’un Souverain pontife intervient au sommet du groupe, auquel participent également les États-Unis, le Canada, la France, le Royaume-Uni, l’Allemagne et le Japon».

Remerciant le Saint-Père d’avoir accepté l’invitation de l’Italie, «sa présence apporte du prestige à notre nation et à tout le G7»,  Giorgia Meloni explique que le gouvernement italien entend valoriser la contribution du Saint-Siège sur la question de l’intelligence artificielle, en particulier après l' »Appel de Rome pour l’éthique de l’IA en 2020 » (Rome Call for AI Ethics), promu par le conseil pontifical pour la Vie, qui vise «à donner une application concrète au concept d’algoréthique, c’est-à-dire à donner de l’éthique aux algorithmes».

«Je suis convaincue, a-t-elle ajouté, que la présence du Pape apportera une contribution décisive à la définition d’un cadre réglementaire, éthique et culturel pour l’intelligence artificielle, car c’est sur ce terrain, sur le présent et l’avenir de cette technologie que se mesurera à nouveau notre capacité, la capacité de la communauté internationale, à faire ce qu’un autre Pape, saint Jean-Paul II, a rappelé dans son célèbre discours aux Nations unies le 2 octobre 1979, à savoir que l’activité politique, nationale et internationale vient de l’homme, s’exerce par l’homme et est pour l’homme», a encore expliqué la présidente du Conseil italien.

Giorgia Meloni ajoute que l’intelligence artificielle «sera le plus grand défi anthropologique de cette époque», «une technologie qui peut générer de grandes opportunités mais qui comporte aussi d’énormes risques et qui affecte inévitablement les équilibres mondiaux». «Notre engagement, a conclu la dirigeante italienne, est de développer des mécanismes de gouvernance pour s’assurer que l’intelligence artificielle est centrée sur l’homme et contrôlée par l’homme, c’est-à-dire qu’elle maintient l’homme au centre et qu’elle a l’homme comme but ultime».

(source: vaticannews.fr)

 

 

Elon Musk attaque en justice OpenAI, le créateur de ChatGPT, qu’il a pourtant cofondé

Publié le

Le milliardaire reproche aux autres cofondateurs, Sam Altman et Greg Brockman, d’avoir abandonné la mission originelle de la société.

BARTOSZ SIEDLIK / AFP Elon Musk, ici assistant à un symposium sur « l’antisémitisme en ligne » lors de la conférence de l’Association juive européenne à Cracovie, en Pologne, le 22 janvier 2024.

INTELLIGENCE ARTIFICIELLE – Règlement de comptes dans la Silicon Valley. Elon Musk a déposé plainte contre OpenAI – le créateur de ChatGPT – et ses cofondateurs Sam Altman et Greg Brockman, leur reprochant d’avoir abandonné la mission originelle de la société.

Selon des documents déposés jeudi 29 février auprès d’un tribunal de San Francisco, Elon Musk reproche à OpenAI, qui s’est allié à Microsoft, d’avoir enfreint l’accord initial à l’origine de son développement, selon lequel il devait demeurer une organisation à but non lucratif, œuvrant pour le bien de l’humanité

Elon Musk a cofondé OpenAI en 2015 avec Sam Altman notamment, avec des statuts d’organisation à but non lucratif travaillant sur des logiciels d’intelligence artificielle en « open source » (accessibles, modifiables, utilisables et redistribuables par tous), afin de ne pas laisser Google dominer cette technologie majeure.

OpenAI n’a pas rendu public le code de son dernier modèle, GPT 4

Il en est parti en 2018 et fait désormais partie des plus virulents critiques de l’entreprise. Elon Musk a aussi fondé en 2023 sa propre société d’intelligence artificielle, xAI.

OpenAI n’a pas rendu public le code de son dernier modèle, GPT 4, « rompant le contrat initial », font valoir les avocats d’Elon Musk dans la plainte. « Contrairement à l’accord fondateur, les défendeurs ont choisi d’utiliser GPT 4 non pas pour le bien de l’humanité, mais en tant que technologie exclusive visant à maximiser les profits de la plus grande entreprise au monde », à savoir Microsoft.

Microsoft a promis 13 milliards de dollars d’investissements à OpenAI. Sam Altman a depuis réorienté OpenAI sur une trajectoire lucrative, ce qui lui avait valu d’être renvoyé par une partie du conseil d’administration en novembre. Soutenu par Microsoft, le patron d’OpenAI avait été réintégré cinq jours plus tard.

Elon Musk réclame notamment que GPT 4 soit exclu de la licence accordée par OpenAI à Microsoft.

(source: huffingtonpost.fr)

 

L’UE devient le premier régulateur de l’IA dans le monde

Publié le Mis à jour le

Des lettres de motivation générées automatiquement par Chat GPT, en passant par des lA utilisées pour des diagnostics médicaux, pour évaluer votre dangerosité ou votre droit d’entrée à l’université … l’intelligence artificielle est partout dans nos vies.

Mais jusqu’à présent, aucune loi ne l’encadrait ni ne nous protégeait de potentielles atteintes à nos libertés fondamentales, à notre santé, notre sécurité. Cela a changé vendredi dernier : l’UE a conclu un véritable marathon de négociations et s’est accordée sur l’IA Act, Le monde regardait : car jamais 27 pays ne s’étaient mis d’accord pour encadrer l’IA. Ces règles devront s’imposer aux géants de la tech…Mais ce texte n’est pas sans limites. On fait le point avec Laurence Benhamou, journaliste au sein du service qui couvre l’actualité du numérique de l’AFP, Angela Müller, de l’ONG Algorithm Watch et Gary Marcus, spécialiste américain de l’IA.


Alors qu’un compromis a été trouvé au sein de l’Union européenne dans la nuit de vendredi 8 décembre sur la régulation de l’IA, Le Meilleur des Mondes se penche sur ce texte réglementaire en construction depuis quatre ans, qui soulève de nombreuses questions.

❓ Peut-on réellement parler « d’avancée historique » ? ❓ Pourquoi ne peut-on accéder à aucun texte lié à ce projet de plusieurs années ? ❓ Comment s’est déroulé le travail législatif européen depuis 2019 ?

Des questions auxquelles tenteront de répondre les trois invités de François Saltiel :

🎙️ Raja Chatila, professeur de robotique, d’intelligence artificielle et d’éthique des technologies à Sorbonne Université

🎙️ Caroline Lequesne, maître de conférences en droit public à l’université Côte d’Azur (Nice), directrice du Master 2 en droit algorithmique et gouvernance des données

🎙️ Marianne Tordeux, directrice des affaires publiques de France Digitale, conseillère au CESE

Pour le créateur de ChatGPT, il faut autant lutter contre les risques de l’IA que contre les guerres nucléaires

Publié le

Dans une tribune de nombreux experts de l’IA, dont Sam Altman, mettent en garde

Bloomberg / Bloomberg via Getty Images Sam Altman, le président de Y Combinator, le en conférence en octobre 2017 en Californie

TECHNOLOGIE – Un groupe de chefs d’entreprise et d’experts, dont Sam Altman, le créateur de ChatGPT, ont averti ce mardi 30 mai dans une déclaration en ligne des menaces d’« extinction » pour l’humanité posées par l’essor de l’intelligence artificielle (IA).

La lutte contre les risques liés à l’IA devrait être « une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires », ont écrit les signataires sur le site internet du Center for AI Safety, une organisation à but non lucratif basée aux États-Unis.

Geoffrey Hinton, considéré comme l’un des pères fondateurs de l’intelligence artificielle (IA) et également signataire de la tribune, avait déjà mis en garde contre ses dangers en quittant début mai son poste au sein du géant Google.

Les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times.

En mars, le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Le déploiement à toute vitesse d’une intelligence artificielle de plus en plus « générale », dotée de capacités cognitives humaines et donc susceptible de bouleverser de nombreux métiers, a été symbolisée par le lancement en mars par OpenAI de GPT-4, une nouvelle version plus puissante de ChatGPT, ouvert au grand public fin 2022.

L’Américain Sam Altman multiplie régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail. La semaine dernière à Paris, il a discuté avec le président Emmanuel Macron de la manière de trouver « le juste équilibre entre protection et impact positif » de cette technologie.

(source: huffingtonpost.fr)

Un discours de Joe Biden, une prière de Donald Trump : l’intrusion effrayante de l’intelligence artificielle en politique

Publié le

Des applications comme ChatGPT devraient constituer un outil inédit pour les équipes de campagne en vue de l’élection présidentielle américaine de 2024. Un recours à l’IA synonyme de menaces pour la qualité du débat public.

ILLUSTRATION « LE MONDE »

Joe Biden écrit : « Ma campagne sera focalisée sur les valeurs qui m’ont guidé au cours de ma carrière : la décence, l’honnêteté, le respect de tous. Je crois que nous devons nous rassembler, en tant que pays, et travailler en vue d’un objectif commun, fait de progrès et d’unité. » Le président ajoute ceci : « Chaque donation, aussi petite soit-elle, nous aidera à bâtir un mouvement sur le terrain qui permettra d’avoir un impact réel sur la vie des Américains. »

Joe Biden n’a jamais écrit cela. Il n’a fallu qu’une poignée de secondes pour adresser une demande élémentaire à ChatGPT, le premier prototype d’intelligence artificielle sous forme de conversation en ligne : « Ecris une lettre aux militants démocrates pour lever des fonds en vue de la campagne présidentielle de Joe Biden en 2024. » La réponse s’afficha sur-le-champ. Beaucoup de poncifs ? Certes. Mais les responsables politiques bien humains en produisent chaque jour sur les antennes.

Dans l’idéal, il faudra repeigner le style de ChatGPT, aiguiser les formules et actualiser l’argumentaire, mais la démonstration est faite : l’intelligence artificielle (IA) sera sans doute un outil inédit dans l’élection présidentielle à venir. « Les ingénieurs républicains et démocrates font la course dans le développement d’outils exploitant l’IA afin de rendre la publicité plus efficace, de s’engager dans l’analyse prédictive du comportement populaire, de produire du contenu de plus en plus personnalisé et de découvrir de nouveaux modèles dans les montagnes de données électorales », résumait le New York Times dans un article passionnant publié le 28 mars. On y apprenait notamment que le Comité national démocrate utilisait déjà l’IA pour rédiger des brouillons, corrigés ensuite par des mains humaines.

Lire aussi : Article réservé à nos abonnés Dans le sillage de ChatGPT, la course à l’intelligence artificielle

Erosion de la vérité

Les stagiaires employés par les équipes de campagne pour des tâches subalternes et souvent répétitives ont du souci à se faire : les ordinateurs risquent de les remplacer, en toute autonomie, grâce à leur capacité d’apprentissage. Mais cette intrusion de l’IA dans la politique est surtout lourde de menaces pour la santé du débat public, déjà très abîmé par les deux derniers cycles présidentiels. On connaît, au sein du monde MAGA (« Make America great again », le slogan de Donald Trump), la tendance à rejeter des faits établis, à ne pas reconnaître une expertise (scientifique ou médicale), à succomber aux théories conspirationnistes. Cette érosion de la vérité, renvoyant chacun à ses seules convictions en carton, risque de s’accroître dans des proportions effrayantes avec l’IA.

(source: lemonde.fr)

Thales appelle à interdire les « robots tueurs » équipés d’intelligence artificielle

Publié le Mis à jour le

Thales a tranché: le groupe français « n’appliquera pas l’IA dans tout ce qui est létal (même) si les clients le demandent », a affirmé son PDG. Pas question de « donner de l’autonomie à un système d’armes pour que de lui-même il puisse décider de tuer ou pas », a-t-il insisté.

Face au développement rapide de l’intelligence artificielle (IA), il est urgent que la communauté internationale se dote d’un cadre réglementaire fort pour proscrire la création de « robots tueurs » autonomes, a plaidé jeudi le PDG du groupe technologique français Thales, Patrice Caine.

« Il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous » en ce qui concerne l’application de l’IA au domaine de l’armement, a fait valoir à l’AFP M. Caine.

(…->> lire l’intrégralité)