关于不同方式的测试比较,请参见下面的原始问题:
到目前为止,我尝试了两种方法:
1.使用来自Get Folder Size from Windows Command Line的代码遍历目录:
2.保存
到文本文件中,然后按底部的大小读取。
3.我现在尝试的最后一种方法是使用du (来自MS - 的磁盘实用工具)。
现在,除了#3之外,这两种方式对于我所需要的(1000多个文件)来说似乎都太慢了。所以问题是哪一个是最快的/应该是最快的,如果还有其他快速(呃)的方法来获取包含100k+文件的文件夹内容的大小(并且有100个文件夹)
开始编辑:
下面是我做比较的非常麻烦的方法(为了看一些输出,我的程序被屠杀了)

有一些小错误与一些部分,如选项3将失败,因为它试图处理一个大于32位限制的数字,我肯定还有一些问题,但我认为一般的时间是显而易见的,除非我真的搞砸了我的逻辑。
选项一:遍历目录,使用VB脚本读取来自“dir”的文本输出,并在末尾查找大小+将其转换为MB (最初是从其他地方得到的,而实际上我是从其他地方得到的)选项II: Iterate,带有findstr管道,并直接输出结果(不与MB对话)-从@MC ND选项III:使用压缩命令迭代- from @npocmaka选项IV: for @user -使用机器人
(还有一些更多的答案,但这些都是我能够融入的答案)
这些都是我得到的结果,它们在相关性上是相当一致的,机器人复制把它们吹走了。
选项一和选项二通常比较接近,选项二稍微好一点(两者都有1分10秒到2分10秒之间,不确定差异在哪里)第三部分- 16-17分钟第四部分- 10 -20秒。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/201860.html