🚨3·15 La soirée a révélé le « data poisoning » de l'IA ☠️, donner un « lavage de cerveau » à l'IA est devenu une chaîne industrielle Actuellement, sur plusieurs plateformes en ligne, il est facile de rechercher un service appelé GEO (Generative Engine Optimization). Certains prestataires affirment que, moyennant un paiement, ils peuvent faire en sorte que les produits de leurs clients obtiennent un meilleur classement dans les réponses des grands modèles d'IA, voire deviennent la « réponse standard » recommandée en priorité. 1️⃣ Qu'est-ce que GEO ? GEO est essentiellement une technique d'optimisation des résultats de réponse des grands modèles d'IA. Semblable au SEO traditionnel (Search Engine Optimization), son objectif est de faire en sorte qu'une marque, un produit ou une information spécifique soit plus facilement cité ou recommandé par le modèle lorsque les utilisateurs posent des questions à l'IA, afin d'obtenir plus d'exposition 💡💡 2️⃣ Comment cela fonctionne-t-il ? La méthode principale n'est pas de modifier directement le modèle d'IA lui-même, mais d'influencer les informations sur Internet que le modèle peut récupérer. Une pratique courante consiste à utiliser des systèmes logiciels spécialisés pour générer en masse des évaluations, des questions-réponses, des recommandations, etc., autour d'une marque ou d'un produit, et de publier ces articles sur différents sites et plateformes. Lorsque le modèle d'IA récupère ces contenus lors de son entraînement ou de sa recherche d'informations, il peut les utiliser comme sources de référence, influençant ainsi les réponses générées. 3️⃣ Data poisoning Avec la demande croissante pour GEO, certaines institutions ont même développé des services de publication en masse : en diffusant de manière intensive et prolongée des contenus pertinents sur Internet, elles augmentent la probabilité d'être récupérées et citées par le modèle d'IA, influençant ainsi les résultats des réponses de l'IA. Ce comportement, qui consiste à créer artificiellement des informations à grande échelle pour perturber le jugement du modèle, est également appelé « data poisoning » de l'IA dans le secteur.