Название: Новое SEO-2.0 без ключевых слов. Как вывести сайт на вершину поисковой выдачи?
Автор: Анатолий Владимирович Косарев
Издательство: Издательские решения
isbn: 9785005980847
isbn:
В 2015 году поисковая система объявила об обновлении, которое изменило поисковую вселенную: RankBrain.
Алгоритм впервые использовал искусственный интеллект для понимания контента и поиска.
Как и BERT, RankBrain также использует машинное обучение, но не выполняет обработку естественного языка. Метод фокусируется на анализе запросов и группировании слов и фраз, которые семантически похожи, но не могут понимать человеческий язык сами по себе.
Таким образом, когда в Google делается новый запрос, RankBrain анализирует прошлые поисковые запросы и определяет, какие слова и фразы лучше всего соответствуют этому запросу, даже если они не соответствуют точно или никогда не искались.
Получая сигналы взаимодействия с пользователем, боты узнают больше о взаимосвязях между словами и улучшают рейтинг.
Таким образом, это был первый шаг Google в понимании человеческого языка. Даже сегодня это один из методов, используемых алгоритмом для понимания целей поиска и содержимого страницы, чтобы предоставить пользователям лучшие результаты.
Таким образом, BERT не заменил RankBrain – он просто принес еще один метод понимания человеческого языка. В зависимости от запроса алгоритм Google может использовать любой метод (или даже комбинировать оба), чтобы предоставить пользователю наилучший ответ.
Имейте в виду, что алгоритм Google формируется из огромной сложности правил и операций. RankBrain и BERT играют значительную роль, но они являются лишь частью этой надежной поисковой системы.
Как работает Google BERT?
Одним из отличий Google от других систем обработки языка является его двунаправленный характер. Но что это значит?
Другие системы являются только однонаправленными. То есть они только контекстуализируют слова, используя термины, которые находятся слева или справа от них в тексте.
BERT работает в обоих направлениях: анализирует контекст слева и справа от слова. Это приводит к гораздо более глубокому пониманию отношений между терминами и между предложениями.
Другое отличие заключается в том, что BERT строит языковую модель с небольшим текстовым корпусом.
В то время как другие модели используют большие объемы данных для обучения машинному обучению, двунаправленный подход BERT позволяет обучать систему более точно и с гораздо меньшим объемом данных.
Таким образом, после обучения модели в текстовом корпусе (например, в Википедии) она проходит «тонкую настройку».
На этом этапе BERT подвергается конкретным задачам с входными и выходными данными в соответствии с тем, что вы хотите, чтобы он делал. Именно тогда он начинает адаптироваться к различным требованиям, таким как вопросы и ответы или анализ настроений.
Обратите СКАЧАТЬ