
其实不用什么软件。只要在页面中点“文件-另存为-保存类型:网页,全部”,整个网页就保存成了一个文件夹。打开文件夹,所有的等文件都以独立文件的形式存在那,打开看就行~
另外你有迅雷的话,也可以在超链接网址上单击右键,“使用迅雷下载全部链接”~
首先你需要在带有链接的那一列添加新的一列,
标题栏中选择 工具——宏——编辑新宏——输入以下代码——执行
Sub 提取超链接()
For Each cell In Range("A2:A81")
cellOffset(0, 1)=cellHyperlinks(1)Address
Next
End Sub
注意:A2:A81 表示的是带有链接的那一列
F5运行宏以后 在新添加的那一列中会提出来的链接
下载idm下载器,把所有的链接复制,通过idm下载器的批量下载功能 进行的批量下载
@echo off & title 批量获取链接 By 依梦琴瑶
color 0a & cd /d %~dp0
call :CreatDownloadPage
set /p Name=请输入小说名称:
set /p Url=请输入小说网址:
set /p Num=请输入小说集数:
for %%a in ("%Url%") do set ID=%%~na
set "List=《%Name%》的迅雷链接DownList"
if exist "%List%" del /f /q "%List%"
for /l %%a in (1,1,%Num%) do (
echo 正在获取小说《%Name%》第 %%a 集的链接
call :GetThunderLink "%ID%" "%%~a"
echo,
)
del /f /q GetDownloadPagevbs DownloadPagedat
echo 小说《%Name%》的链接已获取完成,请检查日志记录。
pause
exit
:GetThunderLink
set /a N=%~2-1
rem 注意!下面一行中的“域名”,请自行修改成对应的网址
GetDownloadPagevbs "
看了那个站点后,根据页面内容写出来的,切记,此脚本只能针对有单集下载的有效
执行脚本后,按提示输入内容并回车即可。
第一次执行前记得先把代码中的“域名”更改一下,这是因为防止这里被广告,而做的河蟹。
1、首先,如图所示,我们找到目标文件夹,我们需要把文件夹内的所有文件的文件名批量复制。
2、我们打开WINRAR,然后打开到目标文件夹,如图所示,全选所有文件后,右键单击选择“添加文件到压缩文件中”。
3、此时,d出“压缩文件名和参数”面板,我们点击其中的“文件”标签,就可以在要添加的文件中看到所有文件的文件名了(显示不全),我们按“ctrl+c”复制下来。
4、然后,我们打开Word或者记事本,按“ctrl+v”粘贴,就可以批量得到文件名了,效果如下图所示。
如果你安装了迅雷、115优蛋等下载工具,在网页上点右键,菜单里有“使用迅雷/115优蛋下载所有链接”,点击,会d出一个对话框来,把所有的链接都列出来了,你可以根据提示,按照文件类型把要下载的东东勾选上,然后批量建立下载任务。
网际快车很久没用了,应该也有类似功能。
不过有的网站限制了同时下载的TCP或FTP链接数目,甚至只有允许一个,即使你一次性把所有文件的下载任务都建立了,同一时间也只有一个或少量几个在下载。下载完一个才启动另一个。
有的网站则是你刚建立任务的时候可以下载,但不支持断点续传,所以没有及时下载完的后面还得重新建立下载任务。还好这样的网站不多。
以上就是关于怎样批量下载当前网页中的下级链接全部的内容,包括:怎样批量下载当前网页中的下级链接、WPS表格链接图片如何批量下载、请教大佬帮忙做个bat可以批量提取有声小说网下载有声小说的链接等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)