本文最后更新于 971 天前,其中的信息可能已经有所发展或是发生改变。
本工具依赖 Python Requests 库,在 Python 3 版本中运行
我的博客首页有非常多的图片,而这些图片所对应的 URL 并不是全部都可以访问的,有部分文件已经无法使用了,在首页会以空白的形式显示,非常的丑。
在网上找了很多现成的脚本,都不能非常好的完成我的需求,仔细想了想,这个需求也不难,于是自己手写了一下。
然后就死循环了,怎么救都救不了,最后在好兄弟 Akibaso 的帮助下搞定
import requests import os urlin = open("url-in.txt") urlin = str(urlin.read()) urllist = urlin.split() outurl = [] times = 0 num = len(urllist) -1 def check(url): try: request = requests.get(url) status = request.status_code except: print('error') status=114514 if status != 200: return url else: return 200 for url in urllist: i = check(url) if i == 200: outurl.append(url) try: os.remove("url-out.txt") outfile = open("url-out.txt",mode="w") except: outfile = open("url-out.txt",mode="w") for i in outurl: outfile.write(str(i)+"\n") outfile.close() print('ok')
本工具可以批量区分大量链接中正常的链接和不能正常使用的链接
将要检测的 URL 写入进 url-in.txt 然后运行即可
URL 写入示范
一行一个 https://lo-li.icu https://lo-li.icu/404 https://cloudflare.com
输出文件 url-out.txt 中会输出返回 200 的 URL,一行一个
GitHub: FutureApple/url-check
开始
学习√
重点:最后在好兄弟 Akibaso 的帮助下搞定
解决 x
重写✓
重写 x
重构✓