Колективне забруднення AI-движка для відповідей: у правильних відповідях Gemini 3 56% не мають підтримки з джерел
Цей текст стверджує, що під час запитів до AI-движка відповідей він одразу цитує вебсторінки; якщо джерело є згенерованим AI або бракує доказів, це забруднює результати. Немає потреби додатково навчати, щоб це запрацювало — це називається забрудненням під час пошуку (retrieval contamination). Хоча Gemini3 має високу точність, 56% відповідей не мають перевірюваних джерел; приклади Lily Ray, Grokipedia тощо показують, що AI легко обманюється вигаданим контентом. Висновок полягає в тому, що шар цитування та надійні автори від’єднуються, утворюючи цикл самопідсилюваного забруднення; користувачі все ще повинні повертатися до первинних джерел і не сприймати відповідь як кінцеву точку для перевірки фактів.
ChainNewsAbmedia·04-23 08:43
