Так, от имени Google недавно была опубликована научная статья, в которой детально рассказывается о новом алгоритме поисковика. Основная функция этого алгоритма – изымать содержимое со страниц самых разных сайтов, чтобы на его основе создавать свои «логически согласованные» материалы. Такие полновесные тексты будут демонстрироваться пользователям в ответ на определенные запросы без перенаправления на сторонние ресурсы.
Работа алгоритма состоит из двух основных этапов. На первом происходит экстракция (извлечение) фрагментов многочисленных статей, их обобщение и отсечение тех частей текста, которые не являются релевантными поисковому запросу. Результат начального этапа – создание «извлекаемых сводок» (Extractive Summaries). Они состоят из самых важных предложений и словосочетаний, максимально точно соответствующих запросу человека.
На втором этапе начинается процесс перефразирования (Abstractive Summary), создания уникального по форме текста. Если раньше алгоритмы в этом не очень преуспевали (свыше 30% потери смысла), то теперь, как уверяют в Google, новый алгоритм делает это весьма искусно.
В целом, по оценкам разработчиков Google, такой двуплановый подход к созданию нового качественного контента с помощью искусственного интеллекта полностью оправдал себя. Отныне поисковая система способна создавать уникальные по форме (пусть и не по смыслу) тексты, используя чужие наработки, для удовлетворения запросов пользователей.
Когда новый алгоритм будет введен в действие, в компании не сообщают. Но есть такое ощущение, что час, когда это случится, станет роковым для многих веб-мастеров. Фактически официальный плагиат от Google лишит многие сайты части их трафика. Какой части? Думается, значительной...