scrapy抓取的GBK编码的网页,怎么转为utf-8?
python python-爬虫 python2.7 scrapy
content.decode('GBK').encode('utf-8')
scrapy自动翻页采集,第二页跳转后,爬虫自动结束
python初学者爬知乎时遇到的有关登陆的问题
用python抓新浪首页,返回的是乱码
一段中文字符,统计每个字出现的次数,求解决思路
用BS4将信息写入文件时遇到的问题
用scrapy爬取网易新闻时出错[新手]