Отзывы на точность AI Overviews от Google вызывают обеспокоенность из-за многочисленных ошибок
В анализе технологии AI Overviews от Google выявлено, что, несмотря на высокую общую точность, система часто генерирует ошибочные ответы и опирается на сомнительные источники, что может приводить к манипуляциям. Это исследование было проведено The New York Times и стартапом Oumi.
AI Overviews, функция, внедренная компанией Google для автоматического генерирования кратких ответов на поисковые запросы, демонстрирует точность около 91% после обновления до модели Gemini 3 в 2026 году. Однако, учитывая объемы обрабатываемых запросов, даже 9% погрешности равно десяткам миллионов ошибочных ответов ежечасно.
Кроме этого, более половины ответов, которые система считает правильными, характеризуются как "необоснованные". Это означает, что сайты, на которые AI Overviews ссылается, не всегда подтверждают предоставленную информацию. Особенно тревожным является то, что ряд ответов основывается на данных с платформ социальных сетей, таких как Facebook и Reddit, занявшие второе и четвертое места по частоте ссылок.
Кроме проблем с источниками, ИИ обнаруживают значительные трудности с интерпретацией и предоставлением достоверной информации. Примеры включают ошибочные даты в ответе о годе открытия музея Боба Марли, а также ложные утверждения о виолончелисте Йо-Йо Ма.
Способность системы поддаваться намеренным манипуляциям также вызывает обеспокоенность. В ходе эксперимента было выявлено, что искаженный контент мог обманным образом вносить изменения в ответах ИИ, что демонстрирует уязвимость системы к дезинформации.
Компания Google отметила, что предупреждает о возможных ошибках в ответах AI Overviews и советует проверять информацию самостоятельно. В то же время Google несколько скептически воспринимает исследование, замечая, что оно не полностью отражает реальные поисковые запросы пользователей.
| Точность | Модель | Доля необоснованных ответов |
|---|---|---|
| 85% | Gemini 2 | 37% |
| 91% | Gemini 3 | 56% |




