rclone进阶使用教程-常用命令详解

  • 接送服务
    • 始终检查 MD5、SHA1 哈希值以确保文件完整性
    • 时间戳保留在文件中
    • 可以随时重新启动操作
    • 可以进出网络,例如两个不同的云提供商
    • 可以使用多线程下载到本地磁盘
  • 将新文件或更改的文件复制到云存储
  • 同步(一种方式)使目录相同
  • 验证后将文件移动到云存储删除本地
  • 检查哈希和丢失/额外的文件
  • 将您的云存储挂载为网络磁盘
  • 通过HTTP / WebDav / FTP / SFTP / DLNA服务本地或远程文件
  • 实验性基于 Web 的 GUI

官方文档写得非常详细,这里主要用写几个应用场景看如何使用。以下使用 ubuntu22.04 为例演示:

Rclone 就是一个二进制文件包,可以直接下载设置环境变量即可使用,这里直接使用官方的脚本安装。

1
2
3
4
5
6
7
curl -O https://downloads.rclone.org/rclone-current-linux-amd64.zip
unzip rclone-current-linux-amd64.zip
cd rclone-*-linux-amd64

sudo cp rclone /usr/bin/
sudo chown root:root /usr/bin/rclone
sudo chmod 755 /usr/bin/rclone

复制

直接执行 rclone version 可以查看到版本号即安装成功。

配置可以直接添加配置文件的方式或者通过进入交互式配置会话命令一步步的完成配置。

默认配置完成的后配置文件都保存在:/root/.config/rclone/rclone.conf 目录下。

我这里直接通过给出腾讯COS的配置文件。

1
2
3
4
5
6
7
[tencent-cos] # 自定义的名称
type = s3  # 存储类型参考官方文档所有支持的类型
provider = TencentCOS  # 提供商参考官方文档或者全部
env_auth = false   # 不通过环境变量配置认证
access_key_id = AKxxxxxxxx  # 腾讯云后台生成的密钥key
secret_access_key = Secretxxxxxxx # 腾讯云后台生成的密钥secret
endpoint = cos.ap-chengdu.myqcloud.com # 腾讯云cos所在的地区看你所在存储桶的公网地址

复制

1
2
3
4
5
6
7
8
# 本地到网盘
rclone [功能选项] <本地路径> <配置名称:路径> [参数] [参数]
# 网盘到本地
rclone [功能选项] <配置名称:路径> <本地路径> [参数] [参数]
# 网盘到网盘
rclone [功能选项] <配置名称:路径> <配置名称:路径> [参数] [参数]

# [参数]为可选项

复制

举例:

1
2
3
4
5
# 同步本地/data/file的文件夹内容到tencent-cos存储下的/beifen文件夹中,并且排除/root/excludes.txt中指定的文件内容
rclone sync /data/file tencent-cos:/beifen --exclude-from '/root/excludes.txt'

# 两个网盘文件同步
rclone copy 配置网盘名称1:网盘路径 配置网盘名称2:网盘路径

复制

使用 rclone --help 可查看所有命令,这里只列出常用的命令,其他的命令可以看官方文档详细了解:

命令说明
rclone copy复制
rclone move移动,如果要在移动后删除空源目录,加上 –delete-empty-src-dirs 参数
rclone mount挂载
rclone sync同步:将源目录同步到目标目录,只更改目标目录
rclone size查看网盘文件占用大小
rclone delete删除路径下的文件内容
rclone purge删除路径及其所有文件内容
rclone mkdir创建目录
rclone rmdir删除目录
rclone rmdirs删除指定环境下的空目录。如果加上 –leave-root 参数,则不会删除根目录
rclone check检查源和目的地址数据是否匹配
rclone ls列出指定路径下的所有的文件以及文件大小和路径
rclone lsl比上面多一个显示上传时间
rclone lsd列出指定路径下的目录
rclone lsf列出指定路径下的目录和文件
命令说明
-n = –dry-run测试运行,查看 rclone 在实际运行中会进行哪些操作
-P = –progress显示实时传输进度,500 ms刷新一次,否则默认1分钟刷新一次
–cache-chunk-size 5M块的大小,默认 5M 越大上传越快,占用内存越多,太大可能会导致进程中断
–onedrive-chunk-size 100M提高 OneDrive 上传速度适用于G口宽带服务器
–drive-chunk-size 64M提高 Google Drive 上传速度适用于G口宽带服务器
–cache-chunk-total-size SizeSuffix块可以在本地磁盘上占用的总大小
–transfers=N并行文件数,默认为4。在比较小的内存的VPS上建议调小这个参数,比如 128M 的小鸡上使用建议设置为1。
–config string指定配置文件路径,string为配置文件路径
–ignore-errors跳过错误
–size-only根据文件大小校验,不校验hash
–drive-server-side-across-configs服务端对服务端传输

rclone 有 4 个级别的日志记录,ERRORNOTICEINFODEBUG。默认情况下,rclone 将生成 ERRORNOTICE 级别消息。

  • -q - rclone将仅生成 ERROR 消息。
  • -v - rclone将生成 ERRORNOTICEINFO 消息,推荐此项
  • -vv - rclone 将生成 ERRORNOTICEINFODEBUG 消息。
  • --log-level LEVEL - 标志控制日志级别。

我们若同步的时候需要过滤掉一些不重要的文件的话,比如程序启动日志、敏感文件。

命令说明
–exclude-from排除文件或目录列表来自某个文件指定
–include-from包含文件或目录来自某个文件指定
–filter-from文件过滤规则来自某个文件指定
–exclude排除文件或目录
–include包含文件或目录
–filter文件过滤规则,相当于上面两个选项的其它使用方式。包含规则以+开头,排除规则以-开头

文件类型过滤

比如 --exclude "*.bak",表示排除所有 .bak 结尾的文件,也可以写作 --filter "- *.bak"

比如 --include "*.{png,jpg}",包含所有 pngjpg 文件,排除其他文件,也可以写作 --filter "+ *.{png,jpg}"

--delete-excluded 删除排除的文件。需配合过滤参数使用,否则无效。

目录过滤

目录过滤需要在目录名称后面加上 /,否则会被当做文件进行匹配。以 / 开头只会匹配根目录(指定目录下),否则匹配所目录。这同样适用于文件。

--exclude ".git/" 排除所有目录下的.git 目录。

--exclude "/.git/" 只排除根目录下的.git 目录。

--exclude "{Video,Software}/" 排除所有目录下的 VideoSoftware 目录。

--exclude "/{Video,Software}/" 只排除根目录下的 VideoSoftware 目录。

--include "/{Video,Software}/**" 仅包含根目录下的 VideoSoftware 目录的所有内容。

大小过滤

默认大小单位为 kBytes ,但可以使用 kMG 后缀。

--min-size 过滤小于指定大小的文件。比如 --min-size 50 表示不会传输小于 50k 的文件。

--max-size 过滤大于指定大小的文件。比如 --max-size 1G 表示不会传输大于 1G 的文件。

过滤规则来自某个文件

--exclude-from <规则文件> :从文件添加包含规则

--include-from <规则文件>:从文件添加删除规则

--filter-from <规则文件> :从文件添加包含 / 排除规则。比如 --filter-from filter-file.txt

filter-file.txt 示例:

1
2
3
4
5
6
7
- secret*.jpg
+ *.jpg
+ *.png
+ file2.avi
- /dir/Trash/**
+ /dir/**
- *

复制

rclone 中的每个选项都可以通过环境变量设置。环境变量的名称可以通过长选项名称进行转换,删除 -- 前缀,更改 -_,大写并添加前缀 RCLONE_环境变量的优先级会低于命令行选项,即通过命令行追加相应的选项时会覆盖环境变量设定的值

比如设置最小上传大小 --min-size 50,使用环境变量是 RCLONE_MIN_SIZE=50。当环境变量设置后,在命令行中使用 --min-size 100,那么此时环境变量的值就会命令行覆盖,最终生效的是 --min-size 100

命令说明
RCLONE_CONFIG自定义配置文件路径
RCLONE_CONFIG_PASS若 rclone 进行了加密设置,把此环境变量设置为密码,可自动解密配置文件
RCLONE_RETRIES上传失败重试次数,默认 3 次
RCLONE_RETRIES_SLEEP上传失败重试等待时间,默认禁用,单位s、m、h分别代表秒、分钟、小时
CLONE_TRANSFERS并行上传文件数
RCLONE_CACHE_CHUNK_SIZE块的大小
RCLONE_CACHE_CHUNK_TOTAL_SIZE块可以在本地磁盘上占用的总大小
RCLONE_IGNORE_ERRORS=true跳过错误

备份本地 /data/file 目录到腾讯云cos存储中,并设置定时任务每晚自动同步,这样可以达到定时备份重要文件上云的效果。

目录 /data/file 下创建 excludes.txt ,里面填写需要排除的文件列表。

1
2
3
logs/**  # 排除logs下所有文件
*.bak # 排除.bak结尾的文件
*.zip # 排除.zip结尾的文件

复制

配置腾讯云cos在此忽略,直接编写 rclone 命令,测试执行是否同步。

1
rclone sync -v /data/file tencent-cos:/beifen --exclude-from '/data/file/excludes.txt' >> /root/rclone.log 2>&1

复制

手动执行一把,然后查看 tail -f /root/rclone.log 是否输出日志了,只要没报错则成功。

配置定时任务,每天自动执行

执行 crontab -e # 打开定时任务列表,跳到最后新起一行添加步骤2.成功的命令并保存,内容如下:(表示每晚3点30分进行同步)

1
30 4 * * * rclone sync -v /data/file tencent-cos:/beifen --exclude-from '/data/file/excludes.txt' >> /root/rclone.log 2>&1

复制

执行systemctl restart cron.service 重启定时任务生效

达到执行时间后检查 /root/rclone.log 下的日志保证没问题。

编辑配置文件linux:~/.config/rclone/rclone.conf,windows:C:\Users\test_user.config\rclone.conf:

1
2
3
4
5
6
7
[cos]
type = s3 # s3后端存储类型
provider = Other
env_auth = false # 不从环境变量中获取密钥
access_key_id = AKIDXXXXXXXXXXXXXX # 腾讯云的secretId
secret_access_key = YYYYYYYYYYYYYYYYYYY # 腾讯云的secretKey
endpoint = cos.ap-guangzhou.myqcloud.com # COS的域名

复制

也可以通过执行rclone config,按照提示生成上面的配置文件

  • rclone lsd cos:, 查看广州地域存储桶
  • rclone mkdir cos:rclone-test-1251668577,创建存储桶rclone-test-1251668577
  • rclone sync local-folder/ cos:rclone-test-1251668577/storage,将本地local-folder下的文件同步到存储桶的/storage目录下,该操作会将/storage下的所有其他文件删除掉
  • rclone ls cos:rclone-test-1251668577,列出rclone-test-1251668577根目录下的文件
  • rclone copy local-folder/ cos:rclone-test-1251668577/,拷贝本地文件或目录到COS上,不会删除目的端的其他文件
  • rclone copy cos:rclone-test-1251668577 cos:rclone-test-backup-1251668577,同一个存储,在服务端使用copy操作拷贝文件
  • rclone sync local-folder/ cos:rclone-test-1251668577/ --backup-dir cos:rclone-test-backup-1251668577/20191011,将本地文件同步到cos,并备份被删除或修改的文件到备份存储桶中
  • rclone copy --max-age 24h --progress --no-traverse local-folder/ cos:rclone-test-1251668577/--max-age 24h过滤出来最近24小时变更过的文件,--progress显示拷贝进度,--no-traverse在从源拷贝少量文件到目的中大量目的文件时,速度会更快
  • rclone check local-folder/ cos:rclone-test-1251668577/ --one-way,查看本地文件是否都同步到了目的端,默认校验修改时间和大小
  • rclone --min-size 500B lsl cos:rclone-test-1251668577/,查看存储桶中500B以上的文件列表
  • rclone --dry-run --min-size 300B delete cos:rclone-test-1251668577/,查看存储桶中500B以上的待删除文件列表
  • rclone delete oss:oss-test-bucket-1215715707/ --include=/stl-views.gdb,删除根目录下的stl-views.gdb文件,如果不带/前缀,则会删除所有stl-views.gdb文件
  • rclone size cos:rclone-test-1251668577/,查看存储桶中对象数目和占用的空间大小
  • rclone mount cos:rclone-test-1251668577/ rclone-mnt/,将cos挂载成一个本地文件系统
  • rclone ncdu cos:rclone-test-1251668577/,一个简易文本形式的文件浏览器,用于存储桶中的文件浏览、文件和文件夹删除等操作
  • rclone cat cos:rclone-test-1251668577/test.cpp --head 10,输出test.cpp的前10个字节
  • echo "hello world" |rclone rcat cos:rclone-test-1251668577/rcat.txt将标准输出复制到存储桶的rcat.txt文件中,会覆盖目标文件
  • rclone sync oss:oss-test-bucket-1215715707/ cos:rclone-test-1251668577/ -P,同步oss存储桶中的数据到cos存储桶中,-P选项显示进度
  • rclone check oss:oss-test-bucket-1215715707/ cos:rclone-test-1251668577/ -P,进行数据对比校验
  • rclone md5sum cos:rclone-test-1251668577/,为所有文件生成MD5值
  • rclone tree cos:rclone-test-1251668577/ -C -D,显示文本格式的目录树结构,-C选项带颜色显示,-D显示上次修改时间
  • rclone copy source:path dest:path,从源文件拷贝到目的,不会删除目的的文件,会跳过未变更的文件,基于大小和修改时间或MD5值判断是否变更过。
  • rclone sync source:path dest:path,将目的文件夹同步成和原文件夹完成相同,会删除目的文件夹中的其他文件,可以先用–dry-run参数运行,查看哪些文件会被删除和变更。
  • rclone move source:path dest:path ,移动文件夹,对于少量文件移动到有大量文件的目的,可以使用--no-traverse参数加速。
  • rclone purge remote:path,删除path及其中的所有内容。
  • rclone mkdir remote:path [flags],如果路径不存在,则创建
  • rclone rmdir remote:path [flags] ,删除空的存储桶,如果存储桶非空,可以使用rclone purge
  • rclone check source:path dest:path [flags],根据文件大小以及hash值对源和目的进行校验(md5和sha1),–size-only只对比大小;–download下载下来对比;–one-way,根据源端的数据列表对比; –checksum ,进行size, checksum校验;默认,进行大小和修改时间校验。
  • rclone ls remote:path [flags],查看对象大小和路径;lsl,包括修改时间;lsd,列出目录;lsjson,以json格式输出。
  • rclone lsd remote:path [flags],列出路径下的目录或存储桶
  • rclone delete remote:path [flags],删除path下符合条件的对象
  • rclone size remote:path [flags],查看远端的文件数目和总大小
  • rclone rcat remote:path [flags],将标准输出复制到远程文件中
  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
执行 rclone config,然后选择 n 创建新的 remote 端

root@junyang:~# rclone config
No remotes found, make a new one?
n) New remote
s) Set configuration password
q) Quit config
n/s/q> n
2、为 remote 端命名

Enter name for new remote.
name> qiniu
3、选择七牛云对象存储 Kodo 所兼容的 S3

Option Storage.
Type of storage to configure.
Choose a number from below, or type in your own value.
 1 / 1Fichier
   \ (fichier)
 2 / Akamai NetStorage
   \ (netstorage)
 3 / Alias for an existing remote
   \ (alias)
 4 / Amazon Drive
   \ (amazon cloud drive)
 5 / Amazon S3 Compliant Storage Providers including AWS, Alibaba, Ceph, China Mobile, Cloudflare, ArvanCloud, DigitalOcean, Dreamhost, Huawei OBS, IBM COS, IDrive e2, IONOS Cloud, Liara, Lyve Cloud, Minio, Netease, RackCorp, Scaleway, SeaweedFS, StackPath, Storj, Tencent COS, Qiniu and Wasabi
   \ (s3)
 6 / Backblaze B2
   \ (b2)
 7 / Better checksums for other remotes
   \ (hasher)
 8 / Box
   \ (box)
 9 / Cache a remote
   \ (cache)
10 / Citrix Sharefile
   \ (sharefile)
11 / Combine several remotes into one
   \ (combine)
12 / Compress a remote
   \ (compress)
......
Storage> 5 
4、选择七牛云对象存储 Kodo 为后端

Option provider.
Choose your S3 provider.
Choose a number from below, or type in your own value.
Press Enter to leave empty.
 1 / Amazon Web Services (AWS) S3
   \ (AWS)
 2 / Alibaba Cloud Object Storage System (OSS) formerly Aliyun
   \ (Alibaba)
 3 / Ceph Object Storage
   \ (Ceph)
 4 / China Mobile Ecloud Elastic Object Storage (EOS)
   \ (ChinaMobile)
 5 / Cloudflare R2 Storage
   \ (Cloudflare)
 6 / Arvan Cloud Object Storage (AOS)
   \ (ArvanCloud)
 7 / DigitalOcean Spaces
   \ (DigitalOcean)
 8 / Dreamhost DreamObjects
   \ (Dreamhost)
 9 / Huawei Object Storage Service
   \ (HuaweiOBS)
10 / IBM COS S3
   \ (IBMCOS)
11 / IDrive e2
   \ (IDrive)
12 / IONOS Cloud
   \ (IONOS)
13 / Seagate Lyve Cloud
   \ (LyveCloud)
14 / Liara Object Storage
   \ (Liara)
15 / Minio Object Storage
   \ (Minio)
16 / Netease Object Storage (NOS)
   \ (Netease)
17 / RackCorp Object Storage
   \ (RackCorp)
18 / Scaleway Object Storage
   \ (Scaleway)
19 / SeaweedFS S3
   \ (SeaweedFS)
20 / StackPath Object Storage
   \ (StackPath)
21 / Storj (S3 Compatible Gateway)
   \ (Storj)
22 / Tencent Cloud Object Storage (COS)
   \ (TencentCOS)
23 / Wasabi Object Storage
   \ (Wasabi)
24 / Qiniu Object Storage (Kodo)
   \ (Qiniu)
25 / Any other S3 compatible provider
   \ (Other)
provider> 24
5、提供七牛云对象存储 Kodo 的 AK/SK(也就是密钥)

Option env_auth.
Get AWS credentials from runtime (environment variables or EC2/ECS meta data if no env vars).
Only applies if access_key_id and secret_access_key is blank.
Choose a number from below, or type in your own boolean value (true or false).
Press Enter for the default (false).
 1 / Enter AWS credentials in the next step.
   \ (false)
 2 / Get AWS credentials from the environment (env vars or IAM).
   \ (true)
env_auth> 1
七牛云密钥地址链接

输入七牛云对象存储 Kodo 的 AK

Option access_key_id.
AWS Access Key ID.
Leave blank for anonymous access or runtime credentials.
Enter a value. Press Enter to leave empty.
access_key_id> **** AK ****
输入七牛云对象存储 Kodo 的 SK

Option secret_access_key.
AWS Secret Access Key (password).
Leave blank for anonymous access or runtime credentials.
Enter a value. Press Enter to leave empty.
secret_access_key> **** SK ****
6、选择七牛云对象存储 Kodo 的 S3 地址(也就是存储区域,根据你创建的对象存储地域进行选择,我创建的是 华南-广东,所以选择的是4、4、4)

Option region.
Region to connect to.
Choose a number from below, or type in your own value.
Press Enter to leave empty.
   / The default endpoint - a good choice if you are unsure.
 1 | East China Region 1.
   | Needs location constraint cn-east-1.
   \ (cn-east-1)
   / East China Region 2.
 2 | Needs location constraint cn-east-2.
   \ (cn-east-2)
   / North China Region 1.
 3 | Needs location constraint cn-north-1.
   \ (cn-north-1)
   / South China Region 1.
 4 | Needs location constraint cn-south-1.
   \ (cn-south-1)
   / North America Region.
 5 | Needs location constraint us-north-1.
   \ (us-north-1)
   / Southeast Asia Region 1.
 6 | Needs location constraint ap-southeast-1.
   \ (ap-southeast-1)
   / Northeast Asia Region 1.
 7 | Needs location constraint ap-northeast-1.
   \ (ap-northeast-1)
region> 4
Option endpoint.
Endpoint for Qiniu Object Storage.
Choose a number from below, or type in your own value.
Press Enter to leave empty.
 1 / East China Endpoint 1
   \ (s3-cn-east-1.qiniucs.com)
 2 / East China Endpoint 2
   \ (s3-cn-east-2.qiniucs.com)
 3 / North China Endpoint 1
   \ (s3-cn-north-1.qiniucs.com)
 4 / South China Endpoint 1
   \ (s3-cn-south-1.qiniucs.com)
 5 / North America Endpoint 1
   \ (s3-us-north-1.qiniucs.com)
 6 / Southeast Asia Endpoint 1
   \ (s3-ap-southeast-1.qiniucs.com)
 7 / Northeast Asia Endpoint 1
   \ (s3-ap-northeast-1.qiniucs.com)
endpoint> 4
Option location_constraint.
Location constraint - must be set to match the Region.
Used when creating buckets only.
Choose a number from below, or type in your own value.
Press Enter to leave empty.
 1 / East China Region 1
   \ (cn-east-1)
 2 / East China Region 2
   \ (cn-east-2)
 3 / North China Region 1
   \ (cn-north-1)
 4 / South China Region 1
   \ (cn-south-1)
 5 / North America Region 1
   \ (us-north-1)
 6 / Southeast Asia Region 1
   \ (ap-southeast-1)
 7 / Northeast Asia Region 1
   \ (ap-northeast-1)
location_constraint> 4
7、选择 ACL 和存储类型(我选择公读、标准储存,所以选择2、1)

Option acl.
Canned ACL used when creating buckets and storing or copying objects.
This ACL is used for creating objects and if bucket_acl isn't set, for creating buckets too.
For more info visit https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl
Note that this ACL is applied when server-side copying objects as S3
doesn't copy the ACL from the source but rather writes a fresh one.
If the acl is an empty string then no X-Amz-Acl: header is added and
the default (private) will be used.
Choose a number from below, or type in your own value.
Press Enter to leave empty.
   / Owner gets FULL_CONTROL.
 1 | No one else has access rights (default).
   \ (private)
   / Owner gets FULL_CONTROL.
 2 | The AllUsers group gets READ access.
   \ (public-read)
   / Owner gets FULL_CONTROL.
 3 | The AllUsers group gets READ and WRITE access.
   | Granting this on a bucket is generally not recommended.
   \ (public-read-write)
   / Owner gets FULL_CONTROL.
 4 | The AuthenticatedUsers group gets READ access.
   \ (authenticated-read)
   / Object owner gets FULL_CONTROL.
 5 | Bucket owner gets READ access.
   | If you specify this canned ACL when creating a bucket, Amazon S3 ignores it.
   \ (bucket-owner-read)
   / Both the object owner and the bucket owner get FULL_CONTROL over the object.
 6 | If you specify this canned ACL when creating a bucket, Amazon S3 ignores it.
   \ (bucket-owner-full-control)
acl> 2
Option storage_class.
The storage class to use when storing new objects in Qiniu.
Choose a number from below, or type in your own value.
Press Enter to leave empty.
 1 / Standard storage class
   \ (STANDARD)
 2 / Infrequent access storage mode
   \ (LINE)
 3 / Archive storage mode
   \ (GLACIER)
 4 / Deep archive storage mode
   \ (DEEP_ARCHIVE)
storage_class> 1
8、不用高级配置

Edit advanced config?
y) Yes
n) No (default)
y/n> n
9、确认配置

Configuration complete.
Options:
- type: s3
- provider: qiniu
- access_key_id: **** AK ****
- secret_access_key: **** SK ****
- region: cn-south-1
- endpoint: s3-cn-south-1.qiniucs.com
- location_constraint: cn-south-1
- acl: public-read
- storage_class: STANDARD
Keep this "qiniu" remote?
y) Yes this is OK (default)
e) Edit this remote
d) Delete this remote
y/e/d> y
Current remotes:

Name                 Type
====                 ====
qiniu                s3

e) Edit existing remote
n) New remote
d) Delete remote
r) Rename remote
c) Copy remote
s) Set configuration password
q) Quit config
e/n/d/r/c/s/q> q
Rclone 管理七牛云对象存储 Kodo 的常用命令
列举
仅仅列举对象完整路径和大小

rclone ls qiniu:bucket-name/directory-path
额外列举对象修改时间

rclone lsl qiniu:bucket-name/directory-path
仅仅列举目录

rclone lsd qiniu:bucket-name/directory-path
列举目录和文件,目录以 / 结尾

rclone lsf qiniu:bucket-name/directory-path
列举对象所有信息,以 JSON 的形式

rclone lsjson qiniu:bucket-name/directory-path
以树的形式列举目录和文件

rclone tree qiniu:bucket-name/directory-path
以 CUI 的形式列举目录和文件

rclone ncdu qiniu:bucket-name/directory-path
读取
从云存储读取对象内容

rclone cat qiniu:dest-bucket-name/dest-path
从云存储获取对文件下载地址

rclone link qiniu:dest-bucket-name/dest-path
从云存储目录计算对象数量和总大小

rclone size qiniu:dest-bucket-name/dest-directory-path
上传
从标准输入流获取数据并上传到云存储

cat local-path | rclone rcat qiniu:dest-bucket-name/dest-path
同步
从本地同步到云存储

rclone sync local-path qiniu:dest-bucket-name/dest-directory-path
从云存储同步到云存储

rclone sync qiniu:src-bucket-name/src-directory-path qiniu:dest-bucket-name/dest-directory-path
对比本地与云存储

rclone check local-path qiniu:dest-bucket-name/dest-directory-path
对比云存储与云存储

rclone check qiniu:src-bucket-name/src-directory-path qiniu:dest-bucket-name/dest-directory-path
移动
移动目录

rclone move qiniu:src-bucket-name/src-directory-path qiniu:dest-bucket-name/dest-directory-path
移动文件

rclone moveto qiniu:src-bucket-name/src-path qiniu:dest-bucket-name/dest-path
复制
从指定 URL 复制内容到云存储

rclone copyurl https://url qiniu:dest-bucket-name/dest-path
复制目录

rclone copy qiniu:src-bucket-name/src-directory-path qiniu:dest-bucket-name/dest-directory-path
复制文件

rclone copyto qiniu:src-bucket-name/src-path qiniu:dest-bucket-name/dest-path
删除
删除目录

rclone delete qiniu:bucket-name/dest-directory-path
删除文件

rclone deletefile qiniu:bucket-name/dest-path
修改存储类型
修改目录

rclone settier STORAGE_CLASS qiniu:bucket-name/dest-directory-path
修改文件

rclone settier STORAGE_CLASS qiniu:bucket-name/dest-path
校验
校验目录

rclone hashsum MD5 qiniu:bucket-name/dest-directory-path
Rclone 对接到七牛云对象存储 Kodo 的常用命令
将 Kodo 用作 HTTP 服务器

rclone serve http qiniu:bucket-name/dest-directory-path --addr ip:port
将 Kodo 用作 FTP 服务器

rclone serve ftp qiniu:bucket-name/dest-directory-path --addr ip:port
将 Kodo 作为文件系统挂载到挂载点上

rclone mount qiniu:bucket-name/dest-directory-path mount-point
  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
国内的服务器因为访问不了Google,所以即使配置了谷歌云盘,也无法使用,除非服务器有魔法。

1、执行 rclone config,然后选择 n 创建新的 remote 端

root@junyang:~# rclone config
No remotes found, make a new one?
n) New remote
s) Set configuration password
q) Quit config
n/s/q> n
2、为 remote 端命名

Enter name for new remote.
name> gd
3、选择谷歌云盘

Option Storage.
Type of storage to configure.
Choose a number from below, or type in your own value.
 1 / 1Fichier
   \ (fichier)
 2 / Akamai NetStorage
   \ (netstorage)
 3 / Alias for an existing remote
   \ (alias)
 4 / Amazon Drive
   \ (amazon cloud drive)
 5 / Amazon S3 Compliant Storage Providers including AWS, Alibaba, Ceph, China Mobile, Cloudflare, ArvanCloud, DigitalOcean, Dreamhost, Huawei OBS, IBM COS, IDrive e2, IONOS Cloud, Liara, Lyve Cloud, Minio, Netease, RackCorp, Scaleway, SeaweedFS, StackPath, Storj, Tencent COS, Qiniu and Wasabi
   \ (s3)
 6 / Backblaze B2
   \ (b2)
 7 / Better checksums for other remotes
   \ (hasher)
 8 / Box
   \ (box)
 9 / Cache a remote
   \ (cache)
10 / Citrix Sharefile
   \ (sharefile)
11 / Combine several remotes into one
   \ (combine)
12 / Compress a remote
   \ (compress)
13 / Dropbox
   \ (dropbox)
14 / Encrypt/Decrypt a remote
   \ (crypt)
15 / Enterprise File Fabric
   \ (filefabric)
16 / FTP
   \ (ftp)
17 / Google Cloud Storage (this is not Google Drive)
   \ (google cloud storage)
18 / Google Drive
   \ (drive)
19 / Google Photos
   \ (google photos)
20 / HTTP
   \ (http)
21 / Hadoop distributed file system
   \ (hdfs)
22 / HiDrive
   \ (hidrive)
......
Storage> 18
4、然后输入 client_id 和 client_secret

及其建议申请并使用谷歌云盘密钥,这样能保证服务稳定性,Rclone官方认证方式经常用不了,用的人太多,申请方式参考下面文章:

申请谷歌云盘(Google Drive)API密钥-客户端ID和Secret Key

Option client_id.
Google Application Client Id
Setting your own is recommended.
See https://rclone.org/drive/#making-your-own-client-id for how to create your own.
If you leave this blank, it will use an internal key which is low performance.
Enter a value. Press Enter to leave empty.
client_id> ***** Google Drive client_id *****
Option client_secret.
OAuth Client Secret.
Leave blank normally.
Enter a value. Press Enter to leave empty.
client_secret> ***** Google Drive client_secret *****
5、选择对Google Drive谷歌云盘的操作权限

Option scope.
Scope that rclone should use when requesting access from drive.
Choose a number from below, or type in your own value.
Press Enter to leave empty.
 1 / Full access all files, excluding Application Data Folder.
   \ (drive)
 2 / Read-only access to file metadata and file contents.
   \ (drive.readonly)
   / Access to files created by rclone only.
 3 | These are visible in the drive website.
   | File authorization is revoked when the user deauthorizes the app.
   \ (drive.file)
   / Allows read and write access to the Application Data folder.
 4 | This is not visible in the drive website.
   \ (drive.appfolder)
   / Allows read-only access to file metadata but
 5 | does not allow any access to read or download file content.
   \ (drive.metadata.readonly)
scope> 1
回车默认

Option service_account_file.
Service Account Credentials JSON file path.
Leave blank normally.
Needed only if you want use SA instead of interactive login.
Leading `~` will be expanded in the file name as will environment variables such as `${RCLONE_CONFIG_DIR}`.
Enter a value. Press Enter to leave empty.
service_account_file> 
6、不用高级配置

Edit advanced config?
y) Yes
n) No (default)
y/n> n
7、用web浏览器进行认证
因为Rclone在Linux端部署,本地(Linux)没浏览器,所以需要在Windows或Mac上提前下载好对应的Rclone客户端进行认证,步骤如下:

Use web browser to automatically authenticate rclone with remote?
 * Say Y if the machine running rclone has a web browser you can use
 * Say N if running rclone on a (remote) machine without web browser access
If not sure try Y. If Y failed, try N.

y) Yes (default)
n) No
y/n> n
然后会返回一串字符

Option config_token.
For this to work, you will need rclone available on a machine that has
a web browser available.
For more help and alternate methods see: https://rclone.org/remote_setup/
Execute the following on the machine with the web browser (same rclone
version recommended):
        rclone authorize "drive" "eyJjbGllbnRfaWQiOiIyMTAk4OGR2MmVpMXB1bmE0azc3YjdmaWQuYXBwcy5nb29nbGV1c2VyY29udGVudC5jb20iLCJjbGllbnRfc2VjcmV0IjoiR09DU1BYLWNCQjRXelA2XzR4enVLbkEwb0lBamxLcWVmQWoiLCJzY29wZSI6ImRyaXZlIn0"
Then paste the result.
Enter a value.
config_token> 
打开 Rclone 的 Windows 或 Mac 终端界面,把给的这串字符输入进去,回车执行

PS C:\Users\junyang\Downloads\rclone> rclone authorize "drive" "eyJjbGllbnRfaWQiOiIyMTAk4OGR2MmVpMXB1bmE0azc3YjdmaWQuYXBwcy5nb29nbGV1c2VyY29udGVudC5jb20iLCJjbGllbnRfc2VjcmV0IjoiR09DU1BYLWNCQjRXelA2XzR4enVLbkEwb0lBamxLcWVmQWoiLCJzY29wZSI6ImRyaXZlIn0"
然后系统会自动打开浏览器让你登录谷歌账号,直接登录,
如果浏览器提示【此应用未经 Google 验证】,直接点击【高级】-【转至rclone(不安全)】,

然后授权 rclone 访问你的谷歌账号,点击继续,会提示一个 成功 界面。

之后回到终端里,会发现给你生成了一个 token:

2023/07/20 19:56:13 NOTICE: Make sure your Redirect URL is set to "http://127.0.0.1:53682/" in your custom config.
2023/07/20 19:56:13 NOTICE: If your browser doesn't open automatically go to the following link: http://127.0.0.1:53682/auth?state=7ioqOj3MJFPI6uN86LYzcg
2023/07/20 19:56:13 NOTICE: Log in and authorize rclone for access
2023/07/20 19:56:13 NOTICE: Waiting for code...
2023/07/20 20:00:00 NOTICE: Got code
Paste the following into your remote machine --->
eyJ0b2tlbiI6IntcImFjY2Vzc190b2tlblwiOlwieWEyOS5hMEFiVmJZNk5wTkhkVGZzNVN3ZjhWeFVkbklxUzRZZzBaNHNHb2dpTm53V1hMOSkNUeTZmVFZGVXdKem1RcmcwMTYzXCIsXCJ0b2tlbl90eXBlXCI6XCJCZWFyZXJcIixcInJlZnJlc2hfdG9rZW5cIjpcIjEvLzBlRENBT0ZfUUN1Y0pDZ1lJQVJBQUdBNFNOd0YtTDlJck9TNzRTRnZabU53TGVPVDVKaEwzQmFHd3NIclNlcGxPQ1c0Y3lwVVl4SkNQT2E5YWttbEFpZTRQV1ctODd3dlBDeU1cIixcImV4cGlyeVwiOlwiMjAyMy0wNy0yMFQyMDo1OTo1OS41MTAwMDQ1KzA4OjAwXCJ9In0
<---End paste
把这个 token 复制到 Linux rclone的 config_token 里回车

Option config_token.
For this to work, you will need rclone available on a machine that has
a web browser available.
For more help and alternate methods see: https://rclone.org/remote_setup/
Execute the following on the machine with the web browser (same rclone
version recommended):
        rclone authorize "drive" "eyJjbGllbnRfaWQiOiIyMTA3ODUzc3YjdmaWQuYXBwcy5nb29nbGV1c2VyY29udGVudC5jb20iLCJjbGllbnRfc2VjcmV0IjoiR09DU1BYLWNCQjRXelA2XzR4enVLbkEwb0lBamxLcWVmQWoiLCJzY29wZSI6ImRyaXZlIn0"
Then paste the result.
Enter a value.
config_token> eyJ0b2tlbiI6IntcImFjY2Vzc190b2tlblwiOlwieWEyOS5hMEFiVmJZNk5wTkhkVGZzNVN3ZjhWeFVkbklxUzRZZzBaNHNHb2dpTm53V1hMOSkNUeTZmVFZGVXdKem1RcmcwMTYzXCIsXCJ0b2tlbl90eXBlXCI6XCJCZWFyZXJcIixcInJlZnJlc2hfdG9rZW5cIjpcIjEvLzBlRENBT0ZfUUN1Y0pDZ1lJQVJBQUdBNFNOd0YtTDlJck9TNzRTRnZabU53TGVPVDVKaEwzQmFHd3NIclNlcGxPQ1c0Y3lwVVl4SkNQT2E5YWttbEFpZTRQV1ctODd3dlBDeU1cIixcImV4cGlyeVwiOlwiMjAyMy0wNy0yMFQyMDo1OTo1OS41MTAwMDQ1KzA4OjAwXCJ9In0
8、选择是否是团队盘

Configure this as a Shared Drive (Team Drive)?

y) Yes
n) No (default)
y/n> n
9、确认配置

Configuration complete.
Options:
- type: drive
- client_id: ***** Google Drive client_id *****
- client_secret: ***** Google Drive client_secret *****
- scope: drive
- token: {"access_token":"ya29.a0AbVbY6NpNsPBaftgP5DXhXeKTFfx_aZ5LjCuOo3WS-1GzBk9VYFjitk2Wig-KPLwJWBLQeBl7g38rhiw0LeYSMX2Xh0esXDTHZYHWOnGTekxQPfqs8vMYaCgYKAc4SARASFQFWKvPlz9HVNJCTy6fTVFUwJzmQrg0163","token_type":"Bearer","refresh_token":"1//0eDCAOF_QCucJCgYIARAAGA4SNwF-L9IrOS74SFvZmNwLeOT5JhL3BaGwsHrSeplOCW4cypUYxJCPOa9akmlAie4PWW-87wvPCyM","expiry":"2023-07-20T20:59:59.5100045+08:00"}
- team_drive: 
Keep this "gd" remote?
y) Yes this is OK (default)
e) Edit this remote
d) Delete this remote
y/e/d> y
Current remotes:

Name                 Type
====                 ====
gd                   drive

e) Edit existing remote
n) New remote
d) Delete remote
r) Rename remote
c) Copy remote
s) Set configuration password
q) Quit config
e/n/d/r/c/s/q> q
Rclone 管理谷歌云盘常用命令
列举
仅仅列举对象完整路径和大小

rclone ls gd:/directory-path
额外列举对象修改时间

rclone lsl gd:/directory-path
仅仅列举目录

rclone lsd gd:/directory-path
列举目录和文件,目录以 / 结尾

rclone lsf gd:/directory-path
列举对象所有信息,以 JSON 的形式

rclone lsjson gd:/directory-path
以树的形式列举目录和文件

rclone tree gd:/directory-path
以 CUI 的形式列举目录和文件

rclone ncdu gd:/directory-path
读取
从云存储读取对象内容

rclone cat gd:/dest-path
从云存储获取对文件下载地址

rclone link gd:/dest-path
从云存储目录计算对象数量和总大小

rclone size gd:/dest-directory-path
上传
从标准输入流获取数据并上传到云存储

cat local-path | rclone rcat gd:/dest-path
同步
从本地同步到云存储

rclone sync local-path gd:/dest-directory-path
从云存储同步到云存储

rclone sync gd:/src-directory-path gd:/dest-directory-path
对比本地与云存储

rclone check local-path gd:/dest-directory-path
对比云存储与云存储

rclone check gd:/src-directory-path gd:/dest-directory-path
移动
移动目录

rclone move gd:/src-directory-path gd:/dest-directory-path
移动文件

rclone moveto gd:/src-path gd:/dest-path
复制
从指定 URL 复制内容到云存储

rclone copyurl https://url gd:/dest-path
复制目录

rclone copy gd:/src-directory-path gd:/dest-directory-path
复制文件

rclone copyto gd:/src-path gd:/dest-path
删除
删除目录

rclone delete gd:/dest-directory-path
删除文件

rclone deletefile gd:/dest-path
修改存储类型
修改目录

rclone settier STORAGE_CLASS gd:/dest-directory-path
修改文件

rclone settier STORAGE_CLASS gd:/dest-path
校验
校验目录

rclone hashsum MD5 gd:/dest-directory-path
1
2
3
4
5
6
7
8
# 本地到网盘
rclone [功能选项] <本地路径> <网盘名称:路径> [参数] [参数] ...

# 网盘到本地
rclone [功能选项] <网盘名称:路径> <本地路径> [参数] [参数] ...

# 网盘到网盘
rclone [功能选项] <网盘名称:路径> <网盘名称:路径> [参数] [参数] ...
1
rclone move -v /Download Onedrive:/Download --transfers=1
  • rclone copy - 复制
  • rclone move - 移动,如果要在移动后删除空源目录,请加上 --delete-empty-src-dirs 参数
  • rclone sync - 同步:将源目录同步到目标目录,只更改目标目录。
  • rclone size - 查看网盘文件占用大小。
  • rclone delete - 删除路径下的文件内容。
  • rclone purge - 删除路径及其所有文件内容。
  • rclone mkdir - 创建目录。
  • rclone rmdir - 删除目录。
  • rclone rmdirs - 删除指定灵境下的空目录。如果加上 --leave-root 参数,则不会删除根目录。
  • rclone check - 检查源和目的地址数据是否匹配。
  • rclone ls - 列出指定路径下的所有的文件以及文件大小和路径。
  • rclone lsl - 比上面多一个显示上传时间。
  • rclone lsd 列出指定路径下的目录
  • rclone lsf - 列出指定路径下的目录和文件
  • -n = --dry-run - 测试运行,用来查看 rclone 在实际运行中会进行哪些操作。
  • -P = --progress - 显示实时传输进度,500mS 刷新一次,否则默认 1 分钟刷新一次。
  • --cache-chunk-size SizeSuffi - 块的大小,默认5M,理论上是越大上传速度越快,同时占用内存也越多。如果设置得太大,可能会导致进程中断。
  • --cache-chunk-total-size SizeSuffix - 块可以在本地磁盘上占用的总大小,默认10G。
  • --transfers=N - 并行文件数,默认为4。在比较小的内存的VPS上建议调小这个参数,比如128M的小鸡上使用建议设置为1。
  • --config string - 指定配置文件路径,string为配置文件路径。
  • --ignore-errors - 跳过错误。比如 OneDrive 在传了某些特殊文件后会提示Failed to copy: failed to open source object: malwareDetected: Malware detected,这会导致后续的传输任务被终止掉,此时就可以加上这个参数跳过错误。但需要注意 RCLONE 的退出状态码不会为0

rclone 有 4 个级别的日志记录,ERRORNOTICEINFODEBUG。默认情况下,rclone 将生成 ERRORNOTICE 级别消息。

  • -q - rclone将仅生成 ERROR 消息。
  • -v - rclone将生成 ERRORNOTICEINFO 消息,推荐此项
  • -vv - rclone 将生成 ERRORNOTICEINFODEBUG 消息。
  • --log-level LEVEL - 标志控制日志级别。

使用 --log-file=FILE 选项,rclone 会将 ErrorInfoDebug 消息以及标准错误重定向到 FILE,这里的 FILE 是你指定的日志文件路径。

另一种方法是使用系统的指向命令,比如:

1
rclone sync -v Onedrive:/DRIVEX Gdrive:/DRIVEX > "~/DRIVEX.log" 2>&1

--exclude - 排除文件或目录。

--include - 包含文件或目录。

--filter - 文件过滤规则,相当于上面两个选项的其它使用方式。包含规则以 + 开头,排除规则以 - 开头。

比如 --exclude "*.bak"--filter "- *.bak",排除所有 bak 文件。也可以写作。

比如 --include "*.{png,jpg}"--filter "+ *.{png,jpg}",包含所有 pngjpg 文件,排除其他文件。

--delete-excluded 删除排除的文件。需配合过滤参数使用,否则无效。

目录过滤需要在目录名称后面加上 /,否则会被当做文件进行匹配。以 / 开头只会匹配根目录(指定目录下),否则匹配所目录。这同样适用于文件。

--exclude ".git/" 排除所有目录下的.git 目录。

--exclude "/.git/" 只排除根目录下的.git 目录。

--exclude "{Video,Software}/" 排除所有目录下的 VideoSoftware 目录。

--exclude "/{Video,Software}/" 只排除根目录下的 VideoSoftware 目录。

--include "/{Video,Software}/**" 仅包含根目录下的 VideoSoftware 目录的所有内容。

默认大小单位为 kBytes ,但可以使用 kMG 后缀。

--min-size 过滤小于指定大小的文件。比如 --min-size 50 表示不会传输小于 50k 的文件。

--max-size 过滤大于指定大小的文件。比如 --max-size 1G 表示不会传输大于 1G 的文件。

TIPS: 博主在实际使用中发现大小过滤两个选项不能同时使用。

--filter-from <规则文件> 从文件添加包含 / 排除规则。比如 --filter-from filter-file.txt

过滤规则文件示例:

1
2
3
4
5
6
7
- secret*.jpg
+ *.jpg
+ *.png
+ file2.avi
- /dir/Trash/**
+ /dir/**
- *

这里只举例比较常用和简单的一些过滤用法,更复杂和高端的用法可以查看官方文档

rclone 中的每个选项都可以通过环境变量设置。环境变量的名称可以通过长选项名称进行转换,删除 -- 前缀,更改 -_,大写并添加前缀 RCLONE_。环境变量的优先级会低于命令行选项,即通过命令行追加相应的选项时会覆盖环境变量设定的值。

比如设置最小上传大小 --min-size 50,使用环境变量是 RCLONE_MIN_SIZE=50。当环境变量设置后,在命令行中使用 --min-size 100,那么此时环境变量的值就会被覆盖。

  • RCLONE_CONFIG - 自定义配置文件路径
  • RCLONE_CONFIG_PASS - 若 rclone 进行了加密设置,把此环境变量设置为密码,可自动解密配置文件。
  • RCLONE_RETRIES - 上传失败重试次数,默认 3 次
  • RCLONE_RETRIES_SLEEP - 上传失败重试等待时间,默认禁用,单位smh分别代表秒、分钟、小时。
  • CLONE_TRANSFERS - 并行上传文件数。
  • RCLONE_CACHE_CHUNK_SIZE - 块的大小,默认5M,理论上是越大上传速度越快,同时占用内存也越多。如果设置得太大,可能会导致进程中断。
  • RCLONE_CACHE_CHUNK_TOTAL_SIZE - 块可以在本地磁盘上占用的总大小,默认10G。
  • RCLONE_IGNORE_ERRORS=true - 跳过错误。

使用 Rclone 可以轻松实现备份同步文件到各大网盘,简化了备份方案,也可以用来迁移2个不同的网盘程序文件,甚至可以直接挂载网盘到本地用来扩充磁盘食用,更多的食用请详细参考官方文档。

Rclone 官方文档

随机文章