图片数据的爬取
本文最后更新于 211 天前,其中的信息可能已经有所发展或是发生改变。

数据解析
基本步骤:

1.爬取页面源码数据

2.数据解析:解析出页面源码中图片的存储位置(此处初步使用了xpath方法爬取,具体方法见xpath文章),本次爬取的内容为‘https://pic.netbian.com/4kmeinv/’图片网址中的图片内容。

3.创建保存图片的地址

4.持久化存储:建立循环,遍历每一张图片,并将每一张图片保存到本地

5.爬取出的文字存在编码问题时:在text后加上 ‘.encode(‘ISO-8859-1’) ’改变编码格式即可,可以将格式编码改为“utf-8”等其它编码格式。

from lxml import etree
import requests
import os

if name == ‘main‘:
#爬取页面源码数据
headers = {
‘User-Agent’:’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/117.0.0.0 Safari/537.36 Edg/117.0.2045.31′
}
url = ‘https://pic.netbian.com/4kmeinv/’
page_text = requests.get(url=url,headers=headers).text.encode(‘ISO-8859-1’)

#数据解析:src的属性值  alt的属性值
tree = etree.HTML(page_text)
li_list = tree.xpath('//div[@class = "slist"]//li')

if not os.path.exists('./picLibs'):
    os.mkdir('./picLibs')
for li in li_list:
    img_src = 'https://pic.netbian.com' + li.xpath('./a/img/@src')[0]
    img_name = li.xpath('./a/img/@alt')[0]+'.jpg'
    #持久化存储
    img_data = requests.get(url=img_src,headers=headers).content
    img_path = 'picLibs/' + img_name
    with open(img_path,'wb') as fp:
        fp.write(img_data)
        print(img_name,'下载成功')
图片数据的爬取 : http://116.62.240.154:9520/tupianpaqu/
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇