自动获取参考链接的标题
众所周知,我也是一个托更的自媒体的创作者
写的文章经常需要提及一些参考文章,大多数来源于互联网,如下图:

看着感觉还行吧,但是写的时候真的是有点头大,一遍一遍的复制链接,再一遍一遍的对应链接去复制标题,十分的不银杏~
于是懒人总算想起来写一个爬虫脚本直接获取不就完事了吗?
说干就干:
啊完成了:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
| import requests import time import random import urllib3 from bs4 import BeautifulSoup
urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)
heads = {'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36'}
src = open("link2md.txt","r") des = open("res.txt","w")
lines = src.readlines()
for line in lines: url = line.strip("\n").replace(" ","") try: res = requests.get(url,timeout=30,headers=heads,verify=False) res.encoding = 'UTF-8' content = res.text soup = BeautifulSoup(content,'html.parser')
target = soup.find('title') result = "["+target.text+"]("+url+")\n"
print("[\033[32m%s\033[0m](\033[34m%s\033[0m)" % (target.text,url) ) des.write(result) except: print("[\033[31m############ Something Error #############\033[0m](\033[31m%s\033[0m)"% (url)) continue
src.close() des.close()
|
使用
把参考链接写入到link2md.txt
的文件中

运行
完成

文件中也有写入正确的结果:

其他
本来还想封装成跨平台的小软件,算了算了,凑合用吧~
如果有同学想封装,再可视化一下,记得发我一份谢谢~