爬虫下载图片打不开是什么缘故原由,最新浅易爬虫教程,客源怎么找

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,若有问题请实时联系我们以作处置。

作者: GitPython

PS:若有需要Python学习资料的小伙伴可以加点击下方链接自行获取

http://note.youdao.com/noteshare?id=3054cce4add8a909e784ad934f956cef

1.获取图片的url链接

首先,打开百度图片首页,注重下图url中的index

Python爬虫实战:批量下载网站图片

接着,把页面切换成传统翻页版(flip),由于这样有利于我们爬取图片!

Python爬虫实战:批量下载网站图片

对比了几个url发现,pn参数是请求到的数目。通过修改pn参数,考察返回的数据,发现每页最多只能是60个图片。

注:gsm参数是pn参数的16进制表达,去掉无妨

Python爬虫实战:批量下载网站图片

然后,右键检查网页源代码,直接(ctrl+F)搜索 objURL

五险一金公司交多少钱,2020最新费率要知道

Python爬虫实战:批量下载网站图片

这样,我们发现了需要图片的url了。

2.把图片链接保留到内陆

现在,我们要做的就是将这些信息爬取出来。

注:网页中有objURL,hoverURL…然则我们用的是objURL,由于这个是原图

那么,若何获取objURL?用正则表达式!

那我们该若何用正则表达式实现呢?实在只需要一行代码…

results = re.findall('"objURL":"(.*?)",', html) 

焦点代码:

1.获取图片url代码:

# 获取图片url毗邻def get_parse_page(pn,name):  for i in range(int(pn)):    # 1.获取网页    print('正在获取第{}页'.format(i+1))    # 百度图片首页的url    # name是你要搜索的关键词    # pn是你想下载的页数    url = 'https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%s&pn=%d' %(name,i*20)    headers = {      'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4843.400 QQBrowser/9.7.13021.400'}    # 发送请求,获取响应    response = requests.get(url, headers=headers)    html = response.content.decode()    # print(html)    # 2.正则表达式剖析网页    # "objURL":"http://n.sinaimg.cn/sports/transform/20170406/dHEk-fycxmks5842687.jpg"    results = re.findall('"objURL":"(.*?)",', html) # 返回一个列表    # 凭据获取到的图片链接,把图片保留到内陆    save_to_txt(results, name, i)

2.保留图片到内陆代码:

# 保留图片到内陆def save_to_txt(results, name, i):  j = 0  # 在当目录下建立文件夹  if not os.path.exists('./' + name):    os.makedirs('./' + name)  # 下载图片  for result in results:    print('正在保留第{}个'.format(j))    try:      pic = requests.get(result, timeout=10)      time.sleep(1)    except:      print('当前图片无法下载')      j += 1      continue    # 可忽略,这段代码有bug    # file_name = result.split('/')    # file_name = file_name[len(file_name) - 1]    # print(file_name)    #    # end = re.search('(.png|.jpg|.jpeg|.gif)$', file_name)    # if end == None:    #   file_name = file_name + '.jpg'    # 把图片保留到文件夹    file_full_name = './' + name + '/' + str(i) + '-' + str(j) + '.jpg'    with open(file_full_name, 'wb') as f:      f.write(pic.content)    j += 1

3.主函数代码:

# 主函数if __name__ == '__main__':  name = input('请输入你要下载的关键词:')  pn = input('你想下载前几页(1页有60张):')  get_parse_page(pn, name)

使用说明:

# 设置以下模块import requests import reimport osimport time# 1.运行 py源文件# 2.输入你想搜索的关键词,好比“柯基”、“泰迪”等# 3.输入你想下载的页数,好比5,那就是下载 5 x 60=300 张图片

珍藏 举报

本文来源于自互联网,不代表n5网立场,侵删。发布者:虚拟资源中心,转载请注明出处:https://www.n5w.com/33898.html

(0)
打赏 微信扫一扫 微信扫一扫
虚拟资源中心虚拟资源中心网络小白
上一篇 2020年6月20日 16:05
下一篇 2020年6月20日 16:05

相关推荐

联系我们

电话:

在线咨询:点击这里给我发消息

邮件:@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

公众号