本文最后更新于 758 天前,其中的信息可能已经有所发展或是发生改变。
本工具依赖Python Requests库,在Python 3版本中运行
我的博客首页有非常多的图片,而这些图片所对应的URL并不是全部都可以访问的,有部分文件已经无法使用了,在首页会以空白的形式显示,非常的丑。
在网上找了很多现成的脚本,都不能非常好的完成我的需求,仔细想了想,这个需求也不难,于是自己手写了一下。
然后就死循环了,怎么救都救不了,最后在好兄弟 Akibaso的帮助下搞定
import requests
import os
urlin = open("url-in.txt")
urlin = str(urlin.read())
urllist = urlin.split()
outurl = []
times = 0
num = len(urllist) -1
def check(url):
try:
request = requests.get(url)
status = request.status_code
except:
print('error')
status=114514
if status != 200:
return url
else:
return 200
for url in urllist:
i = check(url)
if i == 200:
outurl.append(url)
try:
os.remove("url-out.txt")
outfile = open("url-out.txt",mode="w")
except:
outfile = open("url-out.txt",mode="w")
for i in outurl:
outfile.write(str(i)+"\n")
outfile.close()
print('ok')
本工具可以批量区分大量链接中正常的链接和不能正常使用的链接
将要检测的URL写入进 url-in.txt 然后运行即可
URL写入示范
一行一个
https://lo-li.icu
https://lo-li.icu/404
https://cloudflare.com
输出文件 url-out.txt 中会输出返回200的URL,一行一个
GitHub: FutureApple/url-check
开始
学习√
重点:最后在好兄弟 Akibaso 的帮助下搞定
解决x
重写✓
重写x
重构✓