这是一个Python的脚本,配置运行后可以从某些你指定的tumblr博客下载图片和视频.源代码库为https://github.com/dixudx/tumblr-crawler, 本代码为玄魂拷贝过来,做了部分修改。
Images Crawler for Tumblr Mac OS Utilities. $4.99 was 2.99. Own Wish Buy Buy. A handy and fast tumblr image crawler&downloader. Batch download images from Tumblr blogs, include Liked, Post, and embedded in text post (. Using our free SEO 'Keyword Suggest' keyword analyzer you can run the keyword analysis 'mac backgrounds tumblr' in detail. In this section you can find synonyms for the word 'mac backgrounds tumblr', similar queries, as well as a gallery of images showing the full picture of possible uses for this word (Expressions).
代码详解,参见:https://www.cnblogs.com/xuanhun/p/6298436.html
环境安装
首先要安装python环境,安装最新版即可
下载代码,安装依赖
大功告成,直接跳到下一节配置和运行.
配置和运行
有两种方式来指定你要下载的站点,一是编辑
sites.txt
,二是指定命令行参数.第一种方法:编辑sites.txt文件(推荐)
找到一个文字编辑器,然后打开文件
sites.txt
,把你想要下载的Tumblr站点编辑进去,以逗号分隔,不要有空格,不需要.tumblr.com
的后缀.例如,如果你要下载 vogue.tumblr.com and gucci.tumblr.com,这个文件看起来是这样的:然后保存文件,双击运行
tumblr-photo-video-ripper.py
或者在终端(terminal)里面运行python tumblr-photo-video-ripper.py
第二种方法:使用命令行参数(仅针对会使用操作系统终端的用户)
如果你对Windows或者Unix系统的命令行很熟悉,你可以通过指定运行时的命令行参数来指定要下载的站点:
站点的名字以逗号分隔,不要有空格,不需要
.tumblr.com
的后缀.站点图片/视频的下载与保存
程序运行后,会默认在当前路径下面生成一个跟tumblr博客名字相同的文件夹,照片和视频都会放在这个文件夹下面.
运行这个脚本,不会重复下载已经下载过的图片和视频,所以不用担心重复下载的问题.同时,多次运行可以帮你找回丢失的或者删除的图片和视频.
使用代理 (可选)
你如果不能直接访问Tumblr或者没有使用VPN,就需要配置代理。
Images Crawler For Tumblr Mac Manual Pdf
文件格式参考
./proxies_sample1.json
和./proxies_sample2.json
.然后把你的代理信息用json的格式写入./proxies.json
.你可以访问http://jsonlint.com/以确保你的格式是正确的.如果文件
./proxies.json
没有任何内容,下载过程中不会使用代理.如果你是全局模式使用Shadowsocks做代理, 此时你的
./proxies.json
文件可以写入如下内容,然后重新运行下载命令.
- Buenisimo! ya llevaba como 2 horas buscando uno de estos y este sirvio perfecto
- Great software! but please add next URL crawling and input urls from text file
- Good App.And if there's automatic garbing a queue of blogs it will be more easy.
- Really like it. For the idea's : An option to disable the download preview and a crawl selected (or a crawl all) option would make it a lot better
- Hello mate, i have a little problem here, problem is when i'm trying to get all pictures, i'm add a blog, that's ok, but when i'm trying to grab it, programm tells me, 'Last crawl of oldmusclecars stopped!' and nothing else. I've tried several blogs, same problem for all. Is there any restrictions to use it, like proxy, mb some kind of unusual port, etc? Power mac g3 desktop service manual.