本工具依赖Python Requests库,在Python 3版本中运行

我的博客首页有非常多的图片,而这些图片所对应的URL并不是全部都可以访问的,有部分文件已经无法使用了,在首页会以空白的形式显示,非常的丑。

在网上找了很多现成的脚本,都不能非常好的完成我的需求,仔细想了想,这个需求也不难,于是自己手写了一下。

然后就死循环了,怎么救都救不了,最后在好兄弟 Akibaso的帮助下搞定

import requests
import os

urlin = open("url-in.txt")
urlin = str(urlin.read())
urllist = urlin.split()
outurl = []
times = 0
num = len(urllist) -1

def check(url):
    try:
        request = requests.get(url)
        status = request.status_code
    except:
        print('error')
        status=114514
    if status != 200:
        return url
    else:
        return 200

for url in urllist:
    i = check(url)
    if i == 200:
        outurl.append(url)

try:
    os.remove("url-out.txt")
    outfile = open("url-out.txt",mode="w")
except:
    outfile = open("url-out.txt",mode="w")

for i in outurl:
    outfile.write(str(i)+"\n")
outfile.close()
print('ok')

本工具可以批量区分大量链接中正常的链接和不能正常使用的链接

将要检测的URL写入进 url-in.txt 然后运行即可

URL写入示范

一行一个
https://lo-li.icu
https://lo-li.icu/404
https://cloudflare.com

输出文件 url-out.txt 中会输出返回200的URL,一行一个

GitHub: FutureApple/url-check