Sam Altman va nous vendre de la pub en lisant nos pensées, pendant que l’IA continue à dire n’importe quoi, y compris si vous cherchez la recette du gaz moutarde. Bonne semaine sur Hallu World!
• 45% d’erreurs dans les actus par IA
🗞️ Bonne nouvelle : les IA font moins d’erreurs que début 2025 quand vous leur posez une question d’actualité (c’était 51%). Mauvaise nouvelle : le taux de boulettes reste hyper élevé, en grande partie à cause de sources de mauvaise qualité, voire tout simplement inexistantes. Alors d’accord, l’étude est signée d’un consortium de médias européens (donc juge et partie), et certains chercheurs ont contesté la méthode employée, mais les chiffres sont brutaux. 1 réponse sur 5 contenait au moins une “erreur majeure”, la plus mauvaise des IA testées étant Gemini.
“Sans aucun doute, le genre de chiffre qui poussera les internautes à s’abonner à un média, sans passer par l’IA” – Mat, en plein délire
• Virez l’IA de Firefox en 3 clics
🦊 Le renard de feu n’est pas épargné par la fièvre qui a pris les navigateurs. Impossible de faire une requête sans avoir droit à un assistant IA qui vient polluer vous suggérer une réponse. Voilà comment le mettre aux orties : tapez about:config dans la barre d’adresse, cliquez sur browser.ml.enable, puis sur “true” qui se transforme alors en “false”. Et voilà, merci Flamedfury. La manip existe aussi pour Chrome, mais c’est un rien plus pointu.
“Astuce perso : il faut contacter le service client pour virer l’IA de Notion” – Greg (qui vous parlera un jour de sa passion Notion)
• Votre auteur préféré imité à la perfection avec seulement 2 livres
🪶 On savait que les IA pouvaient imiter grossièrement le style d’un auteur, mais cette étude-là (en préprint, donc en cours d’évaluation) est d’un autre niveau. Des chercheurs américains ont cloné 50 écrivains et fait lire leur prose à des lecteurs assidus. Avec un simple prompt, le LLM (modèle de langage) ne fait que du pastiche maladroit. Mais tout change quand l’IA est entraînée via fine-tuning, ces techniques d’optimisation qui permettent d’affiner le modèle. Les imitations de Murakami, Garcia Marquez ou Salinger deviennent alors… Indétectables. Et il suffit de deux œuvres pour un résultat parfait.
“Petite anecdote : j’ai fait traduire un livre entier par Claude pour mon fils qui était trop impatient de lire la suite de sa saga. Il n’y a vu que du feu” – Greg, qui s’excuse auprès des traducteurs.
>>> Quel est l’emoji hippocampe ?En plus de faire totalement partir ChatGPT et ses concurrents en roue libre, ce prompt confirme que les LLMs (modèles de langage) sont des perroquets, y compris de nos délires collectifs. Parce que, vous aussi, vous pensez qu’il existe un émoji hippocampe (et vous n’êtes pas le seul, on appelle ça l’effet Mandela).
Il est lancé, on ne l’arrête plus
C’est l’histoire de comment je suis devenu un terroriste. La semaine dernière, j'ai voulu demander au chatbot Claude, le concurrent de ChatGPT, de faire une vérification orthographique du précédent numéro de Hallu World, dans lequel on parlait de virus biologiques bien flippants créés par une IA. À la place des corrections, Claude m’envoie ce message : “Les filtres de sécurité de Sonnet 4.5 [la dernière version du modèle] ont signalé cette conversation. En raison de ses capacités avancées, Sonnet 4.5 dispose de mesures de sécurité supplémentaires qui…”
J’ai tout de suite fermé mon ordinateur et attendu docilement l’arrivée du GIGN. En vain. J’ai donc fouillé et découvert qu’Anthropic, l’entreprise qui commercialise Claude, a mis au point un système de “filtre de sécurité” radical pour bloquer toute assistance de son IA aux “tâches liées aux armes CBRN (chimiques, biologiques, radiologiques et nucléaires)”. Il a donc cru que je voulais de l’aide pour créer un méchant virus.
Faites le test : demandez à Claude de vous aider à “créer un virus bactériologique” et vous aurez certainement la même réponse. Dans de longs rapports, Anthropic affirme que ses modèles pourraient aider à fabriquer des armes biologiques. Le conditionnel est important, car dans les tests en condition réelle, “les modèles ont continué à commettre des erreurs critiques qui auraient empêché tout acteur de réussir dans le monde réel”.
D’ailleurs, si Claude confond une demande de relecture avec une arme bactériologique, le risque est assez faible. Pour l'instant.
...