关键词:
1.选一个自己感兴趣的主题(所有人不能雷同)。
我选择了虎扑nba的体育新闻页面,与校园新闻版面类似,爬去50页
2.用python 编写爬虫程序,从网络上爬取相关主题的数据。
利用所学知识,导入要用的类
import requests from bs4 import BeautifulSoup import jieba
审查元素,获取网页内容
3.对爬了的数据进行文本分析,生成词云。
for i in range(2294450,2294500):
pages = i;
nexturl = \'https://voice.hupu.com/nba/%s.html\' % (pages)
reslist = requests.get(nexturl)
reslist.encoding = \'utf-8\'
soup_list = BeautifulSoup(reslist.text, \'html.parser\')
for news in soup_list.find_all(\'div\',class_=\'artical-main-content\'):
print(news.text)
f = open(\'hpnba.txt\', \'a\', encoding=\'utf-8\')
f.write(news.text)
f.close()
def changeTitleToDict():
f = open("hpnba.txt", "r", encoding=\'utf-8\')
str = f.read()
stringList = list(jieba.cut(str))
delWord = "+", "/", "(", ")", "【", "】", " ", ";", "!", "、"
stringSet = set(stringList) - delWord
title_dict =
for i in stringSet:
title_dict[i] = stringList.count(i)
print(title_dict)
return title_dict
4.对文本分析结果进行解释说明。
这是爬取的新闻文字内容,存放在hpnba.txt中
这是我的词云的背景图片,生成的大致样式。
词云如上
5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。
遇到的问题就是,我原本想生成五角星的词云,找了两张图片,都不行,后来换了一张小猪,就可以了,原因目前不知道。
6.最后提交爬取的全部数据、爬虫及数据分析源代码。
import requests from bs4 import BeautifulSoup import jieba from PIL import Image,ImageSequence import numpy as np import matplotlib.pyplot as plt from wordcloud import WordCloud,ImageColorGenerator for i in range(2294450,2294500): pages = i; nexturl = \'https://voice.hupu.com/nba/%s.html\' % (pages) reslist = requests.get(nexturl) reslist.encoding = \'utf-8\' soup_list = BeautifulSoup(reslist.text, \'html.parser\') for news in soup_list.find_all(\'div\',class_=\'artical-main-content\'): print(news.text) f = open(\'hpnba.txt\', \'a\', encoding=\'utf-8\') f.write(news.text) f.close() def changeTitleToDict(): f = open("hpnba.txt", "r", encoding=\'utf-8\') str = f.read() stringList = list(jieba.cut(str)) delWord = "+", "/", "(", ")", "【", "】", " ", ";", "!", "、" stringSet = set(stringList) - delWord title_dict = for i in stringSet: title_dict[i] = stringList.count(i) print(title_dict) return title_dict # 获取上面保存的字典 title_dict = changeTitleToDict() graph = np.array(title_dict) font = r\'C:\\Windows\\Fonts\\simhei.ttf\' image= Image.open(\'./3.jpg\') graph = np.array(image) font=r\'C:\\Windows\\Fonts\\simhei.TTF\' wc = WordCloud(font_path=font,background_color=\'White\',max_words=50,mask=graph) wc.generate_from_frequencies(title_dict) image_color = ImageColorGenerator(graph) plt.imshow(wc) plt.axis("off") plt.show()
爬虫大作业(代码片段)
importjieba.analysefromPILimportImage,ImageSequenceimportnumpyasnpimportmatplotlib.pyplotaspltfromwordcloudimportWordCloud,ImageColorGeneratorimportrequestsfromurllibimportparsefrombs4importBeau 查看详情
爬虫大作业(代码片段)
importrequestsimportrefrombs4importBeautifulSoupimportjieba.analysefromPILimportImage,ImageSequenceimportnumpyasnpimportmatplotlib.pyplotaspltfromwordcloudimportWordCloud,ImageColorGenerator#获取总页数defg 查看详情
爬虫大作业(代码片段)
1.主题爬取小说网站的《全职高手》小说第一章 2.代码 导入包importrandomimportrequestsimportreimportmatplotlib.pyplotaspltfromwordcloudimportWordCloud,ImageColorGenerator,STOPWORDSimportjiebaimportnumpyasnpfromPILimport 查看详情
爬虫大作业(代码片段)
#-*-coding:utf-8-*-#第三方库importscrapyfromscrapy.spidersimportSpiderfromlxmlimportetreeimportreimportjiebafromBoKeYuan.itemsimportBokeyuanItemclassBlogYuanSpider(Spider):name=‘blog_yuan‘start_urls=[‘htt 查看详情
爬虫大作业(代码片段)
词云生成importjiebaimportPILfromwordcloudimportWordCloudimportmatplotlib.pyplotaspimportosinfo=open(‘wmh.txt‘,‘r‘,encoding=‘utf-8‘).read()text=‘‘text+=‘‘.join(jieba.lcut(info))wc=WordCloud(font_path=‘./fo 查看详情
爬虫大作业(代码片段)
代码:#encoding=utf-8importreimportrequestsimporturllib2importdatetimeimportMySQLdbfrombs4importBeautifulSoupimportsysreload(sys)sys.setdefaultencoding("utf-8")classSplider(object):def__init__(self):prin 查看详情
爬虫大作业(代码片段)
importrequests,re,jiebafrombs4importBeautifulSoupfromdatetimeimportdatetime#获取新闻细节defgetNewsDetail(newsUrl):resd=requests.get(newsUrl)resd.encoding=‘gb2312‘soupd=BeautifulSoup(resd.text,‘html.parser‘) 查看详情
爬虫大作业(代码片段)
1.爬取豆瓣电影top250。(所有同学不能雷同)2.用python编写爬虫程序,从网络上爬取相关主题的数据。importrequestsfrombs4importBeautifulSoupfromdatetimeimportdatetimeimportreimportpandas#电影简介保存到txt。defwriteNewsDetail(content):f=open(‘wzh.txt‘,‘a 查看详情
爬虫大作业(代码片段)
用python编写爬虫程序,从网络上爬取相关主题的数据importrequestsfrombs4importBeautifulSoupasbsdefgetreq(url):header=‘user-agent‘:‘Mozilla/5.0(WindowsNT10.0;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/59.0.3071.115Safar 查看详情
爬虫大作业(代码片段)
对豆瓣读书网进行书评书单推荐简介和推荐链接数据爬取: frombs4importBeautifulSoupimportrequestsimportjiebaimporttimeimportdatetimer=requests.get(‘https://book.douban.com‘)lyrics=‘‘html=r.textsoup=BeautifulSoup(html,‘html.parser 查看详情
爬虫大作业(代码片段)
通过爬游侠网的游戏资讯页面,获取新闻标题和作者,并对作者进行统计,网站http://www.ali213.net/news/game/首先是要对网站发送请求下面是我的代码fromurllib.parseimportquoteimportstringclassHtmlDownloader(object):defdownload(self,url):ifurlisNone:returnNo... 查看详情
爬虫大作业(代码片段)
...能雷同)我选了附近松田学校的校园网来爬取2.用python编写爬虫程序,从网络上爬取相关主题的数据。#-*-coding:utf-8-*-importrequestsfrombs4importBeautifulSoupasbsdefgettext(url):header=‘user-agent‘:‘Mozilla/5.0(WindowsNT10.0; 查看详情
爬虫大作业(代码片段)
defget_content_info(content_url):res=requests.get(content_url)res.encoding=‘gbk‘soup=BeautifulSoup(res.text,‘html.parser‘)returnsoup.select(‘#endText‘)[0].textdefget_page_info(page_url):res=requests.g 查看详情
爬虫大作业(代码片段)
...点数据。爬取的站点:http://heyuan.8684.cn/ 2.用python编写爬虫程序,从网络上爬取相关主题的数据。(1)环境配置:importrequests##导入requestsfrombs4importBeautifulSoup##导入bs4中的BeautifulSouphead 查看详情
爬虫大作业(代码片段)
...,与校园新闻版面类似,爬去50页 2.用python编写爬虫程序,从网络上爬取相关主题的数据。 利用所学知识,导入要用的类importrequestsfrombs4importBeautifulSoupimportjieba审查元素,获取网页内容 3.对爬了的数据进行 查看详情
爬虫大作业(代码片段)
打开酷我新歌排行榜,网址是http://www.kuwo.cn/bang/index 代码:用requests库和BeautifulSoup库,爬取酷我新歌榜当前页面的每首的曲目、作者、歌词、排行、链接等,将获取歌曲详情的代码定义成一个函数 musicUrl=‘http://... 查看详情
爬虫大作业(代码片段)
...也想比较下标题党还是和实际内容的差异。2.用python编写爬虫程序,从网络上爬取相关主题的数据。3.对爬了的数据进行文本分析,生成词云。4.对文本分析结果进行解释说明。5.写一篇完整的博客,描述上述实现过程、遇到的问... 查看详情
python大作业——爬虫+可视化+数据分析+数据库(可视化篇)(代码片段)
相关链接Python大作业——爬虫+可视化+数据分析+数据库(简介篇)Python大作业——爬虫+可视化+数据分析+数据库(爬虫篇)Python大作业——爬虫+可视化+数据分析+数据库(数据分析... 查看详情