add new chinese translations

This commit is contained in:
2024-12-30 15:25:56 +08:00
parent a850046d7b
commit 0d798759fd
5418 changed files with 105800 additions and 7052 deletions

View File

@@ -0,0 +1,22 @@
# duperemove
> 查找重复的文件系统范围,并可选择将其安排进行去重。
> 范围是文件系统中一个文件的小部分。
> 在某些文件系统中,当文件内容的某些部分相同时,一个范围可以被多次引用。
> 更多信息:<https://markfasheh.github.io/duperemove/>.
- 在目录中搜索重复的范围并显示它们:
`duperemove -r {{path/to/directory}}`
- 在 Btrfs 或 XFS实验性文件系统上去重重复的范围
`duperemove -r -d {{path/to/directory}}`
- 使用哈希文件存储范围哈希(减少内存使用,并且可以在后续运行中重用):
`duperemove -r -d --hashfile={{path/to/hashfile}} {{path/to/directory}}`
- 限制 I/O 线程(用于哈希和去重阶段)和 CPU 线程(用于查找重复范围阶段):
`duperemove -r -d --hashfile={{path/to/hashfile}} --io-threads={{N}} --cpu-threads={{N}} {{path/to/directory}}`