本文最后更新于 211 天前,其中的信息可能已经有所发展或是发生改变。
数据解析
基本步骤:
1.爬取页面源码数据
2.数据解析:解析出页面源码中图片的存储位置(此处初步使用了xpath方法爬取,具体方法见xpath文章),本次爬取的内容为‘https://pic.netbian.com/4kmeinv/’图片网址中的图片内容。
3.创建保存图片的地址
4.持久化存储:建立循环,遍历每一张图片,并将每一张图片保存到本地
5.爬取出的文字存在编码问题时:在text后加上 ‘.encode(‘ISO-8859-1’) ’改变编码格式即可,可以将格式编码改为“utf-8”等其它编码格式。
from lxml import etree
import requests
import os
if name == ‘main‘:
#爬取页面源码数据
headers = {
‘User-Agent’:’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/117.0.0.0 Safari/537.36 Edg/117.0.2045.31′
}
url = ‘https://pic.netbian.com/4kmeinv/’
page_text = requests.get(url=url,headers=headers).text.encode(‘ISO-8859-1’)
#数据解析:src的属性值 alt的属性值
tree = etree.HTML(page_text)
li_list = tree.xpath('//div[@class = "slist"]//li')
if not os.path.exists('./picLibs'):
os.mkdir('./picLibs')
for li in li_list:
img_src = 'https://pic.netbian.com' + li.xpath('./a/img/@src')[0]
img_name = li.xpath('./a/img/@alt')[0]+'.jpg'
#持久化存储
img_data = requests.get(url=img_src,headers=headers).content
img_path = 'picLibs/' + img_name
with open(img_path,'wb') as fp:
fp.write(img_data)
print(img_name,'下载成功')