java爬虫读取某一张指定图片的url,求解答

java爬虫读取某一张指定图片的url,求解答,第1张

使用jsoup解析到这个url就行,dom结构如下:

look-inside-cover类只有一个,所以直接找到蚂碧毕这个img元素,获取src属性,闷芹就可以获取到图片路径。

代码实现如下:

Document doc = Jsoup.connect("http://link.springer.com/book/10.1057%2F9780230290617").get()

Elements imgs = doc.select(".look-inside-cover")

String imgUrl = imgs.get(0).attr("src")

jsoup的jar包慧裤分享给你:

三种方案:

1.直接用Python的requests库直接爬取,不过这个需要手动做的事情就比较多了,基本上就看你弊世乱的Python功力了

2.使用scrapy爬虫框架,这个框架如果不熟悉的话只能自己租档先去了解下这个框架怎么用

3.使用自动测试框架selemium模拟登录 *** 作,及图片爬取,这个对于大多数会点Python编码的人来说是最好的选择了,他比较直观的能看返棚到怎么去获取数据

每种方案的前提都是你必须有一定基础的编码能力才行,不是随便一个人就能用的

跟linux有什么关系,python是跨平台的,爬取图片的代码如下:

import urllib.requestimport osimport randomdef url_open(url):

req=urllib.request.Request(url)    #为请求设置user-agent,使得程旁兆序看起来更像一个人类

req.add_header('User-Agent'运穗租,'Mozilla/5.0 (Windows NT 6.1WOW64rv:43.0) Gecko/20100101 Firefox/43.0')    #代理IP,使用户能以不同IP访问,从而防止被服务器发现

'''iplist=['1.193.162.123:8000','1.193.162.91:8000','1.193.163.32:8000']

proxy_support=urllib.request.ProxyHandler({'http':random.choice(iplist)})

opener=urllib.request.build_opener(proxy_support)

opener.addheaders=[('User-Agent','Mozilla/5.0 (Windows NT 6.1WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.154 Safari/537.36 LBBROWSER')]

urllib.request.install_opener(opener)'''

response=urllib.request.urlopen(req)

html=response.read()    return htmldef get_page(url):

html=url_open(url).decode('utf-8')

a=html.find('current-comment-page')+23

b=html.find(']',a)    #print(html[a:b])

return html[a:b]def find_imgs(url):

html=url_open(url).decode('utf-8')

img_addrs=[]

a=html.find('img src=')    while a!=-1:

b=html.find('.jpg',a,a+140)        if b!=-1:            if html[a+9]!='h':

img_addrs.append('http:'+html[a+9:b+4])            else:

img_addrs.append(html[a+9:b+4])        else:

b=a+9

a=html.find('img src=',b)    for each in img_addrs:

print(each+'我的打印')    return img_addrsdef save_imgs(folder,img_addrs):

for each in img_addrs:        #print('one was saved')

filename=each.split('族锋/')[-1]        with open(filename,'wb') as f:

img=url_open(each)

f.write(img)def download_mm(folder='ooxx',pages=10):

os.mkdir(folder)

os.chdir(folder)

url=""

page_num=int(get_page(url))    for i in range(pages):

page_num=page_num-1

page_url=url+'page-'+str(page_num)+'#comments'

img_addrs=find_imgs(page_url)

save_imgs(folder,img_addrs)if __name__=='__main__':

download_mm()1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374

完成

运行结果


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/8255269.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-14
下一篇2023-04-14

发表评论

登录后才能评论

评论列表(0条)

    保存