IA

Expérience – Une IA menteuse et manipulatrice : « Elle choisit la nocivité pour l’Homme plutôt que l’échec »

Publié le Mis à jour le

Ce lundi 30 juin, les résultats des tests éthiques moraux effectués sur l’IA démontrant la défaillance de sa capacité en matière de gestion d’entreprise ont été abordés par Anthony Morel, dans Culture IA.


Jusqu’où ira l’intelligence artificielle ? On en a déjà un aperçu et le résultat est très inquiétant. Les derniers modèles, aux États-Unis, ne se contentent plus d’obéir aux ordres. Deux intelligences artificielles ont menti et tenté de manipuler leurs créateurs. Mais que s’est-il réellement passé ?


9 000 licenciements sont annonçés chez Microsoft, soit moins de 4 % des effectifs. L’intelligence artificielle poursuit sa course folle, avec des percées dans la recherche. Mais une inquiétude monte : celle d’une vague de destructions d’emplois, notamment parmi les cadres. Sommes-nous à l’aube d’un “bain de sang social” ou d’un nouveau siècle des Lumières ? Faut-il se reconvertir plombier, apprendre à parler aux animaux ou explorer d’autres nouveaux métiers aussi surprenants qu’inattendus ?

Ce Robot chinois à intelligence artificielle sera le premier au monde à remplacer les Humains – … et celui d’Elon Musk Optimus?

Publié le Mis à jour le

La Chine a dévoilé son robot à intelligence artificielle le plus avancé à ce jour — et on l’appelle déjà l’avenir du remplacement des humains ! Cette machine révolutionnaire est conçue pour exécuter des tâches complexes, apprendre de manière autonome et interagir comme une véritable personne.


Elon Musk LEAKED This Is The Way Tesla Bot Gen 3 Can Do Home Tasks During 10 Hours! That’s Insane!

Quelle place pour l’IA à l’école ? – Le débat du 7/10

Publié le Mis à jour le


Élisabeth Borne était en visite en Normandie ce vendredi 7 février. Sur le plateau de France 3 Normandie, nous avons abordé avec la ministre de l’éducation, de l’enseignement supérieur et de la recherche le sujet de l’intelligence artificielle. La question clé : comment contrôler cette technologie et ses possibles dérives lorsque cela touche à l’éducation ?


 

 

IA : Elon Musk propose près de 100 milliards de dollars pour prendre le contrôle d’OpenAI

Publié le

Un groupe d’investisseurs, avec Elon Musk à sa tête, a des vues sur OpenAI. Dado Ruvic / REUTERS

Selon le Wall Street Journal, le consortium emmené par l’homme le plus riche du monde aurait formulé son offre lundi au conseil d’administration d’OpenAI qui a refusé.

Un groupe d’investisseurs dirigé par Elon Musk tenterait de racheter l’organisation à but non lucratif qui contrôle OpenAI, d’après le Wall Street Journal, signe que le patron de Tesla et proche de Donald Trump n’a pas dit son dernier mot dans le conflit qui l’oppose au créateur de ChatGPT.

Selon le quotidien économique, le consortium emmené par le milliardaire a proposé 97,4 milliards de dollars (environ 94,48 milliards d’euros) lundi au conseil d’administration pour l’acquisition de l’entité. Cette offre non sollicitée arrive alors que Sam Altman, le patron d’OpenAI, essaie de lever des fonds et de transformer sa start-up en société à but lucratif.

«Non merci mais nous rachèterons Twitter pour 9,74 milliards de dollars si tu veux», a écrit Sam Altman lundi sur X, le réseau social qu’Elon Musk a ainsi rebaptisé après l’avoir acheté pour 44 milliards. «Escroc», a répondu l’homme le plus riche du monde.

Critiques de Stargate

Elon Musk, qui fait partie des cofondateurs d’OpenAI, s’en prend régulièrement à Sam Altman, à qui il reproche notamment d’avoir dévoyé la mission initiale de la start-up, axée sur un développement raisonné de l’IA. Il est lui-même partie prenante dans la course à l’intelligence artificielle (IA), notamment avec sa start-up d’IA générative, xAI, lancée en 2023. Les deux hommes se font face dans un procès.

Lire la suite »

Elon Musk: « le monstre IA qui changera l’humanité »

Publié le Mis à jour le

00:00 Elon Musk vient de créer le PLUS PUISSANT superordinateur au monde
00:49 Un BUNKER SECRET au coeur du Tennessee
01:26 100 000 cartes graphiques à 45 000€ pièce
02:21 À L’INTÉRIEUR du monstre : les 4 salles secrètes de Colossus
03:17 Comment refroidir la bête qui pourrait faire fondre une ville
04:44 Un design unique qui fait trembler la concurrence
05:50 Des EXAOCTETS de données : un stockage plus grand que tout Internet
06:54 Le génie d’Elon : Des batteries Tesla pour une puissance DÉMESURÉE
08:52 GROK : L’IA qui voit tout et comprend tout
09:55 Les CHIFFRES VERTIGINEUX : Des milliards investis dans le projet
11:55 Le VÉRITABLE OBJECTIF : Créer une IA plus intelligente que l’humanité
13:05 Une course contre la montre : Elon Musk va-t-il sauver ou détruire l’humanité ?



L’IA « PROGRAMMABLE LIFE » a simulé 500 millions d’années d’évolution pour créer des protéines

Le gouverneur de Californie met son veto à la loi sur la sécurité de l’IA

Publié le Mis à jour le

Le texte rendait les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.

Le gouverneur de Californie, Gavin Newsom, lors d’une conférence à Los Angeles, le 21 mars 2024. DAMIAN DOVARGANES / AP

Jusqu’à la dernière minute, les deux camps ont fait campagne dans la Silicon Valley. Dimanche soir 29 septembre, le gouverneur Gavin Newsom a tranché : il a mis son veto à un projet de loi qui visait à imposer les garde-fous les plus stricts aux grands modèles d’intelligence artificielle aux Etats-Unis.

Le texte SB 1047, ou « Loi pour une innovation sûre dans les modèles d’IA pionniers », avait divisé le monde des technologies, ainsi que la classe politique californienne. Bien qu’il ne soit pas aussi exigeant que la réglementation européenne, il rendait les entreprises d’intelligence artificielle légalement responsables des dommages causés par leurs modèles.

Il exigeait qu’elles intègrent un « interrupteur d’arrêt » (kill switch) pour désactiver leurs systèmes s’ils devenaient incontrôlables et causaient des dommages majeurs, tels que des pertes massives en vies humaines ou des dégâts matériels dépassant 500 millions de dollars (448 millions d’euros). Elon Musk s’y était déclaré favorable, au contraire de Mark Zuckerberg (Meta), de Sam Altman (OpenAI) ou du capital-risqueur pro-Trump Marc Andreessen.

Crainte d’« un effet dissuasif sur l’industrie »

Comme M. Musk, plusieurs des figures historiques de l’IA, à l’instar de Geoffrey Hinton et de Yoshua Bengio, approuvaient le texte. « Nous pensons que les modèles d’IA les plus puissants pourraient bientôt poser des risques graves, tels que l’accès accru aux armes biologiques et les cyberattaques contre les infrastructures essentielles », avait écrit M. Hinton dans une lettre adressée au gouverneur et cosignée par des dizaines d’anciens et actuels employés du secteur de l’IA.

Lors de la conférence annuelle du géant du logiciel Salesforce, le 24 septembre, à San Francisco, M. Newsom avait laissé poindre son scepticisme. D’ordinaire prompt à vanter les initiatives d’avant-garde prises par la Californie, notamment sur le climat ou la défense des consommateurs, il avait regretté que le projet sur la sécurité de l’IA se substitue au débat fédéral sur la question.


Il avait aussi exprimé la crainte qu’il ait « un effet dissuasif sur l’industrie ». « Nous dominons ce domaine, et je ne veux pas perdre cet avantage, » avait-il déclaré, soulignant que trente-deux des plus grandes entreprises d’intelligence artificielle du monde étaient situées en Californie. En matière de risques posés par l’IA, il avait indiqué essayer de s’en tenir à ceux qui sont démontrables par opposition à ceux qui sont hypothétiques. Le projet de loi ciblait les systèmes nécessitant plus de 100 millions de dollars pour être construits. Aucun modèle n’est parvenu à ce seuil, mais les pessimistes pensent qu’il pourrait être atteint rapidement.

Le Pape participera à la session du G7 sur l’intelligence artificielle

Publié le

Le Souverain pontife s’exprimera lors de la session ouverte aux États non membres du sommet du G7, qui se tiendra mi-juin dans les Pouilles au sud de l’Italie. La Salle de presse du Saint-Siège confirme ce vendredi soir l’annonce de la présidente du Conseil. Giorgia Meloni remercie le Saint-Père d’avoir accepté l’invitation de son pays pour apporter «une contribution décisive à la régulation éthique et culturelle de l’intelligence artificielle».

Image d’illustration.

Le Pape François participera au sommet du G7 conduit par l’Italie, qui se tiendra du 13 au 15 juin à Borgo Egnazia, dans les Pouilles. C’est ce qu’a confirmé la Salle de presse du Saint-Siège après l’annonce de la présidente du Conseil italien qui, dans une vidéo, a précisé que le Saint-Père interviendra lors de la session consacrée à l’intelligence artificielle ouverte aux pays non-membres. «C’est la première fois, a précisé Giorgia Meloni, qu’un Souverain pontife intervient au sommet du groupe, auquel participent également les États-Unis, le Canada, la France, le Royaume-Uni, l’Allemagne et le Japon».

Remerciant le Saint-Père d’avoir accepté l’invitation de l’Italie, «sa présence apporte du prestige à notre nation et à tout le G7»,  Giorgia Meloni explique que le gouvernement italien entend valoriser la contribution du Saint-Siège sur la question de l’intelligence artificielle, en particulier après l' »Appel de Rome pour l’éthique de l’IA en 2020 » (Rome Call for AI Ethics), promu par le conseil pontifical pour la Vie, qui vise «à donner une application concrète au concept d’algoréthique, c’est-à-dire à donner de l’éthique aux algorithmes».

«Je suis convaincue, a-t-elle ajouté, que la présence du Pape apportera une contribution décisive à la définition d’un cadre réglementaire, éthique et culturel pour l’intelligence artificielle, car c’est sur ce terrain, sur le présent et l’avenir de cette technologie que se mesurera à nouveau notre capacité, la capacité de la communauté internationale, à faire ce qu’un autre Pape, saint Jean-Paul II, a rappelé dans son célèbre discours aux Nations unies le 2 octobre 1979, à savoir que l’activité politique, nationale et internationale vient de l’homme, s’exerce par l’homme et est pour l’homme», a encore expliqué la présidente du Conseil italien.

Giorgia Meloni ajoute que l’intelligence artificielle «sera le plus grand défi anthropologique de cette époque», «une technologie qui peut générer de grandes opportunités mais qui comporte aussi d’énormes risques et qui affecte inévitablement les équilibres mondiaux». «Notre engagement, a conclu la dirigeante italienne, est de développer des mécanismes de gouvernance pour s’assurer que l’intelligence artificielle est centrée sur l’homme et contrôlée par l’homme, c’est-à-dire qu’elle maintient l’homme au centre et qu’elle a l’homme comme but ultime».

(source: vaticannews.fr)

 

 

Elon Musk attaque en justice OpenAI, le créateur de ChatGPT, qu’il a pourtant cofondé

Publié le

Le milliardaire reproche aux autres cofondateurs, Sam Altman et Greg Brockman, d’avoir abandonné la mission originelle de la société.

BARTOSZ SIEDLIK / AFP Elon Musk, ici assistant à un symposium sur « l’antisémitisme en ligne » lors de la conférence de l’Association juive européenne à Cracovie, en Pologne, le 22 janvier 2024.

INTELLIGENCE ARTIFICIELLE – Règlement de comptes dans la Silicon Valley. Elon Musk a déposé plainte contre OpenAI – le créateur de ChatGPT – et ses cofondateurs Sam Altman et Greg Brockman, leur reprochant d’avoir abandonné la mission originelle de la société.

Selon des documents déposés jeudi 29 février auprès d’un tribunal de San Francisco, Elon Musk reproche à OpenAI, qui s’est allié à Microsoft, d’avoir enfreint l’accord initial à l’origine de son développement, selon lequel il devait demeurer une organisation à but non lucratif, œuvrant pour le bien de l’humanité

Elon Musk a cofondé OpenAI en 2015 avec Sam Altman notamment, avec des statuts d’organisation à but non lucratif travaillant sur des logiciels d’intelligence artificielle en « open source » (accessibles, modifiables, utilisables et redistribuables par tous), afin de ne pas laisser Google dominer cette technologie majeure.

OpenAI n’a pas rendu public le code de son dernier modèle, GPT 4

Il en est parti en 2018 et fait désormais partie des plus virulents critiques de l’entreprise. Elon Musk a aussi fondé en 2023 sa propre société d’intelligence artificielle, xAI.

OpenAI n’a pas rendu public le code de son dernier modèle, GPT 4, « rompant le contrat initial », font valoir les avocats d’Elon Musk dans la plainte. « Contrairement à l’accord fondateur, les défendeurs ont choisi d’utiliser GPT 4 non pas pour le bien de l’humanité, mais en tant que technologie exclusive visant à maximiser les profits de la plus grande entreprise au monde », à savoir Microsoft.

Microsoft a promis 13 milliards de dollars d’investissements à OpenAI. Sam Altman a depuis réorienté OpenAI sur une trajectoire lucrative, ce qui lui avait valu d’être renvoyé par une partie du conseil d’administration en novembre. Soutenu par Microsoft, le patron d’OpenAI avait été réintégré cinq jours plus tard.

Elon Musk réclame notamment que GPT 4 soit exclu de la licence accordée par OpenAI à Microsoft.

(source: huffingtonpost.fr)