Мы все знаем, что в наши дни инструменты искусственного интеллекта способны на многое. Но насколько хороши эти инструменты для поиска в Интернете?
Это важный вопрос, и он имеет множество последствий. Потому что, согласно исследованию Future (издателя TechRadar), почти треть респондентов в США говорят, что теперь они используют ИИ вместо традиционных поисковых систем, таких как Google.
Некоторые люди обращаются к ChatGPT и другим чат-ботам. В то время как другие используют инструменты ИИ, специально разработанные для исследований и расследований, такие как Perplexity. Даже если мы не выбираем инструменты ИИ активно, ИИ все равно появляется в наших поисках, как те небольшие сводки Google, которые теперь появляются в верхней части результатов поиска.
Короче говоря, поиск на основе искусственного интеллекта есть везде. Но главный вопрос остается: действительно ли это хорошо? Именно об этом начинают задумываться исследователи, и, скажем прямо, первоначальные оценки не впечатляют.
ChatGPT — это новый Google? Не так быстро...
Люди могут использовать инструменты ИИ для исследований. Но это не значит, что так следует поступать.
В наших недавних тестах мы сравнили четыре лучших чат-бота на основе искусственного интеллекта, чтобы увидеть, насколько хорошо они справляются с поиском: ChatGPT от OpenAI, Gemini от Google, Claude от Anthropic и Perplexity AI.
Результаты оказались… неоднозначными. Это не было полной катастрофой — всем удалось извлечь некоторую важную информацию, — но точность была невелика. И как они обобщили эту информацию? Они часто сбивают с толку или бесполезны.
Эти результаты подтверждают более комплексное тестирование, проведенное Центром цифровой журналистики Tow, о котором сообщается в Обзор журналистики Колумбии. Их команда протестировала восемь основных моделей ИИ, включая ChatGPT, Perplexity, Copilot, Grok и Gemini, и обнаружила повторяющиеся проблемы: «уверенное представление неверной информации, вводящая в заблуждение атрибуция общего контента и непоследовательные методы поиска информации». О, боже мой.
В целом модели ИИ дали неверный ответ более чем на 60% запросов. Perplexity оказался самым точным (что соответствует его маркетингу как исследовательского инструмента), но он все равно дал 37% неверных ответов. Хуже всех выступил Grok, показав шокирующий процент неудач — 94%. Без комментариев.
Центр «Дао» оценивал результаты по шкале от «совершенно верно» до «совершенно неверно» (или «отсутствие ответа»). Одними из худших примеров являются настоящие галлюцинации, когда ИИ просто… выдумывает вещи. Но даже когда ответы не были полностью неверными, все равно оставались серьезные проблемы с тем, как инструменты повторно заполняли новости и результаты поиска.
Исследование без источников — это вообще не исследование.
Основная проблема заключается в таком переосмыслении информации. Даже если технологии ИИ не предоставляют ложную информацию, они все равно обобщают и искажают контент бесполезным и часто вводящим в заблуждение образом. Как поясняет Центр Дао:
«В то время как традиционные поисковые системы обычно выступают в роли посредника, направляя пользователей на новостные сайты и высококачественный контент, инструменты генеративного поиска самостоятельно анализируют и переупаковывают информацию, отсекая поток трафика к первоисточникам».
«Вывод чата этих ботов часто скрывает серьезные глубинные проблемы с качеством информации. Существует острая необходимость оценить, как эти системы получают доступ, отображают и цитируют новостной контент».
Одной из самых очевидных проблем является то, насколько плохо инструменты ИИ ссылаются на свои источники. Например, ChatGPT часто ссылается на неправильную статью, перенаправляет вас на домашнюю страницу веб-сайта или вообще пропускает цитаты.
Это проблема по двум основным причинам. Во-первых, издатели теряют трафик, даже если их контент используется.
Во-вторых, проверка фактов становится затруднительной. Один из немногих способов проверить результаты ИИ — обратиться к первоисточнику, но сделать это сложнее, если он не указан.
Итак, если ИИ предоставляет вам информацию, но без четкого источника, стоит ли использовать ее для исследования, особенно если в конечном итоге вы все равно будете проверять все через Google? Может и нет.
Да, инструменты ИИ постоянно совершенствуются. И да, некоторые, например Perplexity, работают лучше других. Но даже лучшим из них все равно нужен человеческий надзор. В настоящее время, если говорить об исследованиях, роботы не готовы работать автономно.