每个网页,都有一块区域的内容不希望被搜索引擎抓取,有什么好方法呢?
google 百度 seo
iframe 然后写robot.txt robot.txt 指明指定的路径不希望被抓,然后在该页面引入 具体搜索引擎的robot说明,请去各自搜索引擎官方查看
一般情况下,搜索引擎是(包括Google)不会抓取JS生成的内容的,想要Google抓取JS内容还是需要一些配置呢, Making AJAX Applications Crawlable (可能需翻墙),因此,我觉得使用JS生成内容可行。
google 也可以索引 ajax,swf的内容。我能想到的就是图片,然后根据referer 判断是否为机器人,再决定图片是否显示。
阴谋论:有的搜索引擎并非遵守robots.txt ,只是索引了,但是不现实搜索结果。
ajax获取内容,然后在robots.txt里禁止搜索引擎抓取数据接口
拿js脚本来生成,脚本里面可以存放unicode转义形式,或者url编码过的文本。
生成图片输出,起点这些vip阅读章节就是这么做的吧
百度手机搜索的转码功能是通过那些依据来判断某个网页是否适应手机端的?响应式网页无法识别?
如何获取从搜索引擎进入站点的关键字?
Google 或 百度 的首页查看源代码都是非常复杂的,但页面很简洁,哪些源代码除了排版还干了什么?
Google、Baidu或其他搜索引擎哪家有网页搜索的SDK可以使用?
搜索引擎搜索站点时,网站该如何优化让搜索结果显示这样的层级
关于搜索引擎定义是否收录的robots.txt文件