Shopify /collections-vendors 被挂黑链怎么处理?1分钟搞定
Shopify网站被挂黑链!
collection搜索页被恶意挂外链!
搜索结果中出现了一堆奇怪的链接怎么办?
筋斗云SEO Linus 教你处理!学会上手仅需1分钟!
前言
最近有好一些朋友紧急找我们处理网站被挂黑链的问题,恶意攻击会使collection/vendor这种搜索链接批量强制缓存,让你的网站搜索结果出现一大堆这种不堪入目的违规搜索结果,在后台会看到很多奇怪的词汇和点击量飙升的情况:
看到这种情况务必要去马上处理!
其实这种情况已经出现了很久了,最早在10月我们已经关注到我们客户中出现了这种情况,并且已经对我们100多家的SEO客户都做了预防措施。
但后续我们在帮助卖家朋友处理的时候才发现影响面可能比我们想象得多得多,我们发现每一个Shopify网站都有被攻击的风险。
处理方式
首先你需要统计你有多少个语言页面。
比如英语可能是: https://example.com/collections/vendors?q=
其他语言可能是不同的子目录或者域名,根据你的设置而定,比如:
1 | https://example.com/en-hk/collections/vendors?q= |
谷歌删除缓存
在Google Search Console中选择【编制索引】-【删除】-【新要求】-【暂时移除网址】-【移除所有带此前缀的网址】,填入上一步的统计出来的所有网址,注意不要带参数。
添加正则表达式
然后,需要在你网站的robots.txt的 User-agent: *中底部添加一条正则表达式:
1 | Disallow: /collections/vendors\* |
这条正则表达式的意义是匹配到 /collections/vendors
开头的网址都不被谷歌收录。
如果你输入 /collections/vendors?q=\*
,那灰黑产的恶意攻击者有其他方式进行绕过!因此请直接使用/collections/vendors\*
Shopify 编辑方式如下:
- 进入后台,点击模板Themes。
- 点击Customize旁边的三个点,然后点击编辑代码Edit Code。
- 点击添加新模板,然后选择
robots.txt
。
默认会创建一个robots.txt的模板,再往中间增加这三行即可:1
{%- if group.user_agent.value == '*' -%}
theme.liquid 告知屏蔽索引
另外,还需要在 theme.liquid 中的
标签下方添加以下代码,告知谷歌爬虫屏蔽该页索引。1 | {% if request.path == '/collections/vendors' and collection.all_products_count == 0 -%}<meta name="robots" content="noindex"> {% endif %} |
完成
通过以上简单三步就可以删除掉相关的影响,谷歌会在几天内处理完成处理。你可以看到我们介入之后几天就可以恢复。
我们也反馈了这个情况给到Shopify官方,希望他们能尽快出通用的解决方案。
除此之外,不光是Shopify的网站,所有没有处理妥当的网站都会有这个风险,很多黑灰产能够强行地用一些方式提交索引,但是当你提前预防好,就不会出现这个问题。
扩展知识
robots.txt 目的是为了让谷歌不要对这些页面进行收录,如果想了解更多关于robots.txt的知识,请点击以下链接到了解更多相关资料:
广告时间
Shopify /collections-vendors 被挂黑链怎么处理?1分钟搞定