回顾Python/ target=_blank class=infotextkey>Python学习历程,感慨良多,这门语言实在是太强了,当然,分支也很多,有的在做安全,有的在做数据,有的在做爬虫,本文就笔者本身的爬虫入门的小经验分享给读者,期待各位在学习python的路上披荆斩棘,取得更好的发展。
文章主要是利用requests,爬取500彩票网的大乐透数据(注:偶尔娱乐一下),然后利用csv写入表格文件,让大家对爬虫的过程进行简单的了解,废话不多说,直接上代码。
# -*- coding: UTF-8 -*-
import requests #引入,安装直接命令行pip install requests
from bs4 import BeautifulSoup as bs
from collections import Counter
import csv
import os
# 发起请求
lst=[]
#获取url ,如何获取,另文介绍
url = 'http://datachart.500.com/dlt/history/newinc/history.php?start=07001'
#得到数据
data = requests.get(url).text
#解析
data = bs(data,'lxml')
data = data.find('tbody').find_all('tr')
for content in data:
row_tds = content.find_all('td')
lst.Append([row_tds[14].string,row_tds[0].string,row_tds[1].string,row_tds[2].string,row_td s[3].string,row_tds[4].string,row_tds[5].string,row_tds[6].string,row_tds[7].string])
#写入表格
with open("Lottery_data.csv",'w') as csvfile:
writer = csv.writer(csvfile)
writer.writerow(['日期','期号','红球1', '红球2', '红球3', '红球4', '红球5', '蓝球1', '蓝球2'])
writer.writerows(lst)
csvfile.close()
复制执行一下吧,原来python这么简单,是不是小有成就感,关注不走失,带你更多的了解python。