🚨3·15 Abendveranstaltung deckt AI „Datenvergiftung“ ☠️ auf, das „Gehirnwäsche“ von AI ist bereits zur Industrie geworden. Derzeit kann man auf mehreren Online-Plattformen leicht einen Dienst namens GEO (Generative Engine Optimization) finden. Einige Dienstleister behaupten, dass man gegen Bezahlung die Produkte ihrer Kunden in den Antworten der gängigen AI-Großmodelle höher einstufen und sogar als bevorzugte „Standardantwort“ empfohlen bekommen kann. 1️⃣ Was ist GEO? GEO ist im Wesentlichen eine Optimierungstechnik für die Antworten von AI-Großmodellen. Ähnlich wie bei traditionellem SEO (Suchmaschinenoptimierung) ist das Ziel, dass bestimmte Marken, Produkte oder Informationen bei Fragen an die AI leichter vom Modell zitiert oder empfohlen werden, um mehr Sichtbarkeit zu erhalten 💡💡 2️⃣ Wie wird das erreicht? Der Kernansatz besteht nicht darin, das AI-Modell selbst direkt zu ändern, sondern die Informationen im Internet zu beeinflussen, die das Modell erfassen kann. Eine gängige Methode ist die Nutzung spezieller Softwaresysteme, um massenhaft Inhalte wie Bewertungen, Fragen und Antworten sowie Empfehlungen zu einem bestimmten Brand oder Produkt zu generieren und diese Artikel auf verschiedenen Websites und Plattformen zu veröffentlichen. Wenn das AI-Modell beim Training oder bei der Informationssuche auf diese Inhalte stößt, könnte es sie als Referenzquelle verwenden und somit die endgültige Antwort beeinflussen. 3️⃣ Datenvergiftung Mit der anhaltenden Nachfrage nach GEO haben einige Institutionen sogar spezielle Massenveröffentlichungsdienste entwickelt: Durch langfristige und intensive Veröffentlichung relevanter Inhalte im Internet wird die Wahrscheinlichkeit erhöht, dass sie von AI-Modellen erfasst und zitiert werden, was die Antworten der AI beeinflussen kann. Dieses Verhalten, bei dem Informationen in großem Maßstab künstlich erzeugt werden, um die Urteilsfähigkeit des Modells zu stören, wird in der Branche auch als „Datenvergiftung“ von AI bezeichnet.