Первая версия алгоритма Google Panda вышла в феврале 2011 года. Главная цель этого поискового алгоритма — выявление некачественных сайтов и понижение их в поисковой выдаче и, соответственно, повышение в выдаче качественных сайтов. Задачей разработчиков алгоритма было «научить» его оценивать качество сайтов с человеческой точки зрения.
Для этого перед началом разработки группа специально нанятых людей оценивала качество предложенных сайтов по различным критериям. В процессе оценщики отвечали на вопросы наподобие «Доверил ли бы я этому сайту информацию о своей кредитной карте?». Результаты проверки качества сайтов использовали для машинного обучения алгоритма Google Panda.
Этот алгоритм «не любит» сайты с низкокачественным контентом (например, текстами с низкой или даже нулевой уникальностью), большим количеством рекламы, дублями страниц. При этом одной страницы низкого качества хватает для того, чтобы в выдаче был понижен целый раздел сайта или даже весь сайт: фильтры Google Panda применяются не к отдельным веб-страницам, а ко всему сайту или его разделам.
Изначально алгоритм обновлялся каждый месяц, и компания Google неизменно сообщала об очередном обновлении. В марте 2013 года сообщать об обновлениях перестали, так как было решено перейти на постепенное внедрение обновлений, которое не должно было вызывать резких изменений в поисковой выдаче. Однако в мае 2014 года ситуация изменилась.
20 мая 2014 года Мэтт Каттс, глава подразделения Google по борьбе с поисковым спамом, сообщил на своей странице в Твиттере о выпуске очередного обновления алгоритма — Google Panda 4.0. Это обновление анонсировали из-за его глобальности: в алгоритм были внесены значительные изменения, касающиеся принципов определения некачественных сайтов, которые должны повлиять на многие популярные поисковые запросы.
Обновление Google Panda 4.0 в разной степени повлияет на поисковую выдачу в разных странах. Так, в англоязычном сегменте его влияние скажется примерно на 7,5 % популярных поисковых запросов. Это сделает изменения алгоритма заметными не только владельцам сайтов, которые поднимутся или опустятся в выдаче, но и обычным пользователям поисковой системы.
По словам представителей Google, новая версия Google Panda станет базой для более «мягкого» алгоритма определения некачественных сайтов. Однако в чем эта «мягкость» будет заключаться и какой степени достигнет, не сообщается.
Уже в первые сутки после запуска алгоритма многие сайты стали жертвами значительного понижения «видимости» в результатах поиска Google. В их числе — такие известные проекты, как поисковая система ответов на вопросы Ask.com и интернет-аукцион eBay. C другой стороны, примерно такое же количество сайтов только выиграли от обновления алгоритмов.
Анализ «победивших» и «проигравших» в результате запуска Google Panda 4.0 сайтов позволяет сделать вывод, что обновление касается в первую очередь контента сайтов. Среди «лузеров» оказалось много агрегаторов, то есть сайтов, собирающих информацию с других ресурсов. К ним относятся сайты по распространению скидочных купонов, новостные сайты (в особенности ресурсы, посвященные сплетням о знаменитостях), сайты о программном обеспечении, некоторые форумы и сайты прогнозов погоды.
С другой стороны, некоторые агрегаторы оказались и в числе «победителей», поэтому делать окончательные выводы о влиянии обновленного алгоритма пока рано: создается впечатление, что он еще не начал работать в полную силу, поэтому картина может измениться. В русскоязычном сегменте интернета в первые дни после запуска новой версии алгоритма вообще никаких изменений замечено не было.
Одновременно с обновлением алгоритма Google Panda было запущено обновление алгоритма Payday Loan, который направлен на борьбу со спам-запросами, такими как «порно» или «краткосрочные займы». Однако идентифицировать сайты, на которые повлиял алгоритм Payday Loan, довольно просто. Во-первых, затрагивается только очень специфическая категория запросов, во-вторых, такие сайты не понижаются в выдаче, а полностью из нее исключаются.
Пока что неизвестно, как Google Panda повлияет на результаты поиска в долгосрочной перспективе, но рекомендации для владельцев сайтов остаются прежними: наполнять свои сайты качественным уникальным контентом и знать меру с рекламой.