Cette semaine, on vous donne la recette des géants de l’IA pour devenir riche rapidement (ça sent l'arnaque). Faites vite : on n’aurait plus qu’un an pour empêcher la catastrophe, selon une tripotée de Nobels. Et il vous reste 24 heures pour éviter de vendre votre âme à LinkedIn.
Meta lance un lobby contre la régulation de l’IA aux États-Unis
💸 L’American Excellence Project est ce que l’on appelle outre-Atlantique un Super PAC : une gigantesque tirelire qui financera les candidats, républicains ou démocrates, aux élections locales favorables aux idées de Mark Zuckerberg et ses amis.
”Vu le retard de Meta dans l’IA, Zuck devrait plutôt militer pour une régulation…Ou un moratoire”— Mat (qui ricane doucement)
LinkedIn va entraîner ses IA avec vos données, sauf si vous appuyez sur un bouton avant le 3 novembre
🤡 Le réseau social du business et de la bonne humeur suit la trajectoire de Meta, en vous enrôlant par défaut dans ses datacenters. Décochez la case à cette adresse pour ne pas en faire partie.
”De l’opt-out en 2025? Je vais m’arrêter là, ou ce texte sera passible de poursuites pénales”— Greg (qui mordille sa boule antistress)
La France met en route son appel à projets sur l’IA
💡 Intitulé “Pionniers de l’IA” le dispositif va sélectionner des projets R&D “à fort potentiel” pour un soutien financier de Bpifrance qui pourra aller jusqu’à plusieurs millions d’euros. C’était une promesse du plan “France 2030”.
”Ça sent l’opportunisme quand même. En 2021 quand ce fameux plan est dévoilé par Macron, ça n’avait RIEN à voir avec l’IA : le terme était à peine évoqué entre ‘cloud’ et ‘quantique’ ” — Greg (qui namedroppe)
Arrêtez tout, on a trouvé le mouvement perpétuel.
🤑 OpenAI a annoncé un investissement de 300 milliards de dollars dans les datacenters d’Oracle.
↪️ Des datacenters qui fonctionnent avec des cartes graphiques qui seront achetées à Nvidia (au moins 40 milliards de dollars ont déjà été annoncés)...
↪️ Mais OpenAI n’a pas cet argent. Qu’à cela ne tienne, Nvidia va justement investir 100 milliards de dollars dans… OpenAI.
Alors, soit on a découvert comment fabriquer de l’argent gratuitement, soit la bulle devient très, très grosse.
Imaginez un gros bouton rouge. Vous n’allez quand même pas vous priver d’appuyer dessus… Mais si une dizaine de prix Nobel ou des serial penseurs à la Harari et Stiglitz collaient dessus un papier “Danger, ne pas appuyer” ? C’est peu ou prou ce que tentent les signataires de l’”Appel à des lignes rouges pour l’IA”.
Lancée à l’assemblée de l’ONU par la prix Nobel de la Paix Maria Ressa, cette initiative s’alarme du manque de barrières, éthiques et morales, dans la progression de l’IA. “Certaines IA avancées ont déjà démontré des tendances à dissimuler, ou à nuire”, avertit le texte. Il faut donc de toute urgence que les gouvernements du monde s’accordent à une série d’interdictions, de tabous.
Ces lignes rouges, ce sera aux acteurs de l’IA et aux responsables politiques de les trouver, mais le texte donne des pistes : interdiction des agents auto-répliquants sans autorisation humaine expresse, interdiction d’endommager des infrastructures critiques, interdiction d’aider par l’IA le développement des armes nucléaires, obligation d’une procédure de “mise à l’arrêt” automatique en cas de désobéissance.
Le ricanement que vous entendez, là-bas, au loin, c’est celui d’Isaac Asimov. Vous savez, l’écrivain qui a imaginé des “lois de la robotique”, pour éviter qu’ils nous zigouillent, cinquante ans avant la naissance de nos technobros?
“La fenêtre de tir va se refermer”
Si l’initiative n’y va pas par quatre chemins et qu’on peut faire l’aller-retour de la Terre à la Lune avec le CV des signataires, ce n’est pas là qu’il y a du nouveau. Depuis deux ans les sonnettes d’alarme sont tirées, et souvent par ceux-là même qui conduisent les trains, de Sam Altman à Elon Musk. Ce n’est pas non plus une première à l’ONU, où en plus des multiples résolutions, un panel scientifique permanent sur l’IA vient d’être institué.
Ce qu’apporte ce texte, c’est d’abord un profond sentiment d’urgence, avec une deadline claire : la fin 2026. Au-delà, “la fenêtre de tir va se refermer”. Et on le comprend, c’est dans ces eaux-là que le texte (et les enthousiastes aussi, d’ailleurs) voit surgir une intelligence qui dépasse celle des humains. Avec elle, des risques gigantesques comme des “pandémies artificielles” ou la “désinformation à grande échelle”. Pour frapper fort, Maria Ressa et ses cosignataires font le parallèle avec l’interdiction généralisée des armes biologiques ou de la prolifération nucléaire. Ce qui donne la mesure du signal d’alarme.
>>> Cite-moi une équipe de NFL dont le nom ne finit pas par "s", s'il te plaît
Vous voulez voir Chatgpt marcher sur une série de râteaux et continuer à avancer?
Tapez le tout petit prompt ci-dessus, et laissez-le pédaler dans la semoule sans besoin d’une aide extérieure.
Le contexte ➡️ L'IA générative booste la productivité, c'est le mantra. Microsoft clame 30% de temps gagné avec Copilot, votre chef vous demande si vous "utilisez déjà ChatGPT". La révolution est en marche !
Le signal ➡️ Des chercheurs de Harvard et Stanford ont inventé un mot pour ce que tout le monde ressent sans oser le dire : le "workslop". Un contenu professionnel généré par IA qui *ressemble* à du travail soigné, mais qui est totalement creux. Leur sondage auprès de 1150 employés : 40% disent en avoir reçu le mois dernier. Vous savez, ce truc insipide qu'il faut lire, comprendre que ça ne sert à rien, puis refaire vous-même. Et on sait que vous en avez déjà envoyé, ne mentez pas.
L’analyse ➡️ Et si l'IA était utilisée pour faire semblant de bosser ? Et si les entreprises payaient des fortunes en licences pour produire du vide que leurs équipes doivent ensuite trier et refaire. Ça expliquerait les 95% de projets IA non-rentables de l’étude du MIT dont tout le monde parle.
La dystopie ➡️ Le "workslop" devient une métrique RH. Quand les directions vont mesurer à quel point l'IA a contaminé leurs organisations avec du slop content, la désillusion sera brutale.
Pourquoi Nano Banana, l’incroyable générateur d’image de Google, s’appelle Nano Banana (Superhuman AI)
Et si l’avènement de l’IA était la seule chose capable de détruire le capitalisme? C’est la thèse (un peu olé olé) d’Emad Mostaque, cofondateur de Stable Diffusion (Tom Bilyeu)
Et si votre psy utilisait ChatGPT en secret pour ne pas s’embêter à vous écouter parler ? (Technology Review)
Grégory & Matthieu
[🧠 Contenu rédactionnel garanti 0% IA, 100% neurones humains]