如何用python爬取某东评论
今天小编给大家分享一下如何用python爬取某东评论的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。

10年积累的网站设计、网站建设经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先网站制作后付款的网站建设流程,更有赫章免费网站建设让你可以放心的选择与我们合作。
import requestsimport jsonimport osimport timeimport randomimport jiebafrom wordcloud import WordCloudfrom imageio import imreadcomment_file_path = 'jd_comments.txt'def get_spider_comments(page = 0):#爬取某东评论url = 'https://sclub.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98vv7990&productId=1070129528&score=0&sortType=5&page=%s&pageSize=10&isShadowSku=0&rid=0&fold=1'%pageheaders = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36','referer':'https://item.jd.com/1070129528.html'}try:response = requests.get(url, headers = headers)except:print("something wrong!")#获取json格式数据集comments_json = response.text[26:-2]#将json数据集转为json对象comments_json_obj = json.loads(comments_json)#获取comments里面的所有内容comments_all = comments_json_obj['comments']#获取comments中评论content的内容for comment in comments_all:with open(comment_file_path,'a+' ,encoding='utf-8') as fin:fin.write(comment['content']+'\n')print(comment['content'])def batch_spider_comments():# 每次写入数据之前先清空文件if os.path.exists(comment_file_path):os.remove(comment_file_path)for i in range(100):print('正在爬取'+str(i+1)+'页数据。。。。')get_spider_comments(i)time.sleep(random.random()*5)def cut_word():with open(comment_file_path,encoding='utf-8')as file:comment_text = file.read()wordlist = jieba.lcut_for_search(comment_text)new_wordlist = ' '.join(wordlist)return new_wordlistdef create_word_cloud():mask = imread('ball.jpg')wordcloud = WordCloud(font_path='msyh.ttc',mask = mask).generate(cut_word())wordcloud.to_file('picture.png')if __name__ == '__main__':create_word_cloud()
以上就是“如何用python爬取某东评论”这篇文章的所有内容,感谢各位的阅读!相信大家阅读完这篇文章都有很大的收获,小编每天都会为大家更新不同的知识,如果还想学习更多的知识,请关注创新互联行业资讯频道。
名称栏目:如何用python爬取某东评论
链接地址:http://www.jxjierui.cn/article/pjchoo.html


咨询
建站咨询
