Google представил алгоритм, создающий оригинальный контент из содержимого сайтов
Команда Google опубликовала научную статью, посвященную новому алгоритму, способному брать содержимое разных сайтов и на его основе создавать «логически согласованные» статьи. Новый алгоритм может отвечать на вопросы пользователей, генерируя оригинальный контент, при этом не перенаправляя юзеров на другие сайты.
Как он работает
На начальном этапе алгоритм обобщает контент, извлекая его с сайта, а затем отсекает нерелевантные части. Схожим образом работают алгоритмы, использующиеся для создания готовых ответов. Результаты, генерируемые с помощью нового алгоритма, называются «извлекаемыми сводками» (Extractive Summaries), так как состоят из контента, извлеченного из веб-страниц. Эти сводки состоят из наиболее важных предложений, отвечающих на вопрос пользователя.
На втором этапе используется еще один алгоритм Abstractive Summary, представляющий собой форму перефразирования. Стоит отметить, что недостатком искусственного перефразирования является тот факт, что почти треть таких сводок содержит фейковую информацию.
Однако в статье сообщается, что в Google нашли способ объединить лучшие стороны алгоритмов.
Расширенные снипеты – только первый шаг
Блоки с ответами являются примером Extractive Summaries. Новый двухфазный алгоритм может применяться для книг, открытых баз данных и любых публичных веб-страниц.
В исследовании, проведенном специалистами Google, в качестве поисковых запросов использовались темы из Wikipedia, а в качестве источника «извлекаемых сводок» – результаты поиска Google. Алгоритм перефразировал этот контент для создания новых статей. Также проводился параллельный тест, в ходе которого алгоритм генерировал второй набор статей, используя только ссылки, упоминаемые Wikipedia.
Результаты
Исследователи признали эксперимент с тестированием нового алгоритма успешным. Google способен создавать собственный контент, обобщая содержимое веб-страниц и отвечая таким образом на вопросы юзеров.
В статье не уточняется, когда именно запустят новый алгоритм.
Нововведение прокомментировал SEO-эксперт Сергей Кокшаров в своем Telegram-канале:
Это больше касается информационных запросов, так как нет смысла генерировать коммерческий контент (если речь не о партнерке). Если на основе таких алгоритмов делать сайты, то они хорошо будут заходить в индекс и ранжироваться. Думаю, компании, занимающиеся черным SEO, также разрабатывают (если уже не используют) подобные алгоритмы, для привлечения и монетизации трафика. О смерти SEO говорить пока рано.
Комментариев нет:
Отправить комментарий