我正在开发一个程序,它将(希望)比较给定目录中的所有文件,识别重复项,将它们添加到列表中,然后向用户显示列表,以便他们可以在删除之前验证他们是否希望删除这些文件他们和我被严重困住了。到目前为止,我已经能够递归地列出所有文件,而且我一直在比较它们以找到重复项。我很快意识到要完成我想要的,我需要比较多个文件属性。并非所有文件都是文本文件,就互联网上的示例代码而言,比较文本主要是我发现的内容,我正在尝试了解有关二进制数据的更多信息,因为比较字节数组和文件名是我能做到的最好的跟上。具体来说,我问的是哪些属性最好进行比较,以便在查找重复项的准确性和能够处理合理大小的目录之间取得平衡?如果您不介意我如何在我的代码中实现它?希望我的问题不是太糟糕,我真的很感激我能得到的任何帮助。这是我所拥有的,是的,一些方法和我在这里找到的第二个文件,以防您想知道。 附言如果我遗漏了任何无意义的变量,我真的很抱歉,我试图在发布之前稍微清理一下代码
ListFilesInDir.java
import java.io.*;
import java.nio.file.Files;
import java.nio.file.attribute.*;
import java.security.*;
import java.util.*;
public final class ListFilesInDir {
static File startingDir;
static List<File> files;
static List<File> dirs;
static TreeMap<Integer, File> duplicates;
static ArrayList<Integer> usedIndexes = new ArrayList<Integer>();
static ArrayList<File> duplicateList = new ArrayList<File>();
static File out = new File("ListDuplicateFiles.txt");
static PrintWriter output;
static int key = 0;
static String tabString;
static TreeMap<Integer, File> tMap = new TreeMap<Integer, File>();
static int num1 = 0;
static int num2 = 0;
static File value1 = null;
static File value2 = null;
static String path1 = null;
static String name1 = null;
static String path2 = null;
static String name2 = null;
public static void main(String[] args) throws FileNotFoundException {
new ListFilesInDir(args[0]);
}
public ListFilesInDir(String string) throws FileNotFoundException {
startingDir = new File(string);
dirs = new ArrayList<File>();
duplicates = new TreeMap<Integer, File>();
output = new PrintWriter(out);
getFiles(startingDir);
compareFiles();
writeDuplicateList();
}
public void getFiles(File root) throws FileNotFoundException {
System.out.println("Adding files to list...");
ListFilesInDir.files = getFileList(root);
for (File file : files) {
if (!file.isFile()) {
System.out.println("Adding DIR: " + key + " name: " + file);
dirs.add(file);
} else {
System.out.println("Adding FILE: " + key + " name: " + file);
tMap.put(key, file);
}
key++;
}
System.out.println(dirs.size());
System.out.println("Complete");
}
public static void compareFiles() throws FileNotFoundException {
System.out.println("Preparing to compare files...");
for (num1 = 0; num1 < files.size(); num1++) {
for (num2 = 0; num2 < files.size(); num2++) {
if (num1 != num2) {
value1 = files.get(num1);
value2 = files.get(num2);
path1 = value1.getAbsolutePath();
path2 = value2.getAbsolutePath();
name1 = path1.substring(path1.lastIndexOf(File.separator));
name2 = path2.substring(path2.lastIndexOf(File.separator));
HashMap<Integer, File> testMap = new HashMap<Integer, File>();
System.out.println(num1 + "|" + num2 + " : " + value1
+ " - " + value2);
if (CompareBinaries.fileContentsEquals(
value1.getAbsolutePath(), value2.getAbsolutePath()) == true) {
if (testMap.put(num1, value1) != null) {
TreeSet<File> fileTreeSet;
}
addDuplicate(num1, value1);
files.remove(num1);
System.out.println("added(binary): " + num1 + ":"
+ value1);
} else if (value1.getName().equalsIgnoreCase(
value2.getName())) {
addDuplicate(num1, value1);
files.remove(num1);
System.out.println("added(name): " + num1 + ":"
+ value1);
}
}
}
}
System.out.println("Complete");
}
public static void writeDuplicateList() {
int printKey = 0;
for (File file : duplicateList) {
output.printf("%03d | %s\n", printKey, file);
System.out.printf("%03d | %s\n", printKey, file);
printKey++;
}
output.append(docsInfo());
output.close();
output.flush();
System.out.println("\n"+files.size()+" files in "+startingDir.getAbsolutePath() +", "+duplicateList.size()+" duplicate files.");
}
static public String docsInfo() {
String s = "\n\n" + files.size() + " files in "
+ startingDir.getAbsolutePath() + ", " + duplicates.size()
+ " duplicate files.";
return s;
}
static public List<File> getFileList(File file)
throws FileNotFoundException {
List<File> result = getUnsortedFileList(file);
Collections.sort(result);
return result;
}
static private List<File> getUnsortedFileList(File file)
throws FileNotFoundException {
List<File> result = new ArrayList<File>();
File[] filesAndDirs = file.listFiles();
List<File> filesDirs = Arrays.asList(filesAndDirs);
int dirKey = 0;
for (File fileList : filesDirs) {
result.add(fileList);
if (!fileList.isFile()) {
List<File> deeperList = getUnsortedFileList(fileList);
result.addAll(deeperList);
}
}
return result;
}
static private void validateDir(File dir) throws FileNotFoundException {
if (dir == null)
throw new IllegalArgumentException("Directory is null!");
if (!dir.exists())
throw new FileNotFoundException("Directory doesn't exist: " + dir);
if (!dir.isDirectory())
throw new IllegalArgumentException(dir + "is not a directory!");
if (!dir.canRead())
throw new IllegalArgumentException("Directory cannot be read: "
+ dir);
}
public static void addDuplicate(int i, File file)throws FileNotFoundException{
if (!duplicates.containsKey(i)) {
duplicates.put(i, file);
duplicateList.add(file);
}
}
}
比较二进制文件.java
import java.io.File;
import java.io.FileInputStream;
import java.io.InputStream;
import java.util.Arrays;
public class CompareBinaries {
private final static int BUFFSIZE = 1024;
private static byte buff1[] = new byte[BUFFSIZE];
private static byte buff2[] = new byte[BUFFSIZE];
public static boolean inputStreamEquals(InputStream is1, InputStream is2) {
if(is1 == is2) return true;
if(is1 == null && is2 == null) {
System.out.println("both input streams are null");
return true;
}
if(is1 == null || is2 == null) return false;
try {
int read1 = -1;
int read2 = -1;
do {
int offset1 = 0;
while (offset1 < BUFFSIZE
&& (read1 = is1.read(buff1, offset1, BUFFSIZE-offset1)) >= 0) {
offset1 += read1;
}
int offset2 = 0;
while (offset2 < BUFFSIZE
&& (read2 = is2.read(buff2, offset2, BUFFSIZE-offset2)) >= 0) {
offset2 += read2;
}
if(offset1 != offset2) return false;
if(offset1 != BUFFSIZE) {
Arrays.fill(buff1, offset1, BUFFSIZE, (byte)0);
Arrays.fill(buff2, offset2, BUFFSIZE, (byte)0);
}
if(!Arrays.equals(buff1, buff2)) return false;
} while(read1 >= 0 && read2 >= 0);
if(read1 < 0 && read2 < 0) return true; // both at EOF
return false;
} catch (Exception ei) {
return false;
}
}
public static boolean fileContentsEquals(File file1, File file2) {
InputStream is1 = null;
InputStream is2 = null;
if(file1.length() != file2.length()) return false;
try {
is1 = new FileInputStream(file1);
is2 = new FileInputStream(file2);
return inputStreamEquals(is1, is2);
} catch (Exception ei) {
return false;
} finally {
try {
if(is1 != null) is1.close();
if(is2 != null) is2.close();
} catch (Exception ei2) {}
}
}
public static boolean fileContentsEquals(String fn1, String fn2) {
return fileContentsEquals(new File(fn1), new File(fn2));
}
最佳答案
您可以使用散列函数来比较两个文件 - 两个文件(在不同的文件夹中)可以具有相同的名称和属性(例如长度)但内容不同。例如,您可以创建一个文本文件,然后将其复制到不同的文件夹中,更改内容中的一个字母。
哈希函数对以数字结尾的文件内容进行一些巧妙的数学运算,即使内容上的微小差异也会以两个截然不同的数字结尾。
以 md5 哈希函数为例,它从任意长度的字节数组中生成一个 16 字节的数字。虽然理论上可以创建两个 md5 相同但内容不同的文件,但概率很低(而两个文件名称和大小相同但内容不同是概率较高的事件)
重点是,您可以构建文件内容的 md5 表,这只需计算一次并且可以快速比较 - 如果 md5 不同,则文件不同,置信度为 100%。只有在不太可能发生的情况下,md5 相同,您才必须求助于逐字节比较才能 100% 确定。
关于java - 我需要帮助以递归方式比较目录中的文件以查找重复项,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13209284/
总的来说,我对ruby还比较陌生,我正在为我正在创建的对象编写一些rspec测试用例。许多测试用例都非常基础,我只是想确保正确填充和返回值。我想知道是否有办法使用循环结构来执行此操作。不必为我要测试的每个方法都设置一个assertEquals。例如:describeitem,"TestingtheItem"doit"willhaveanullvaluetostart"doitem=Item.new#HereIcoulddotheitem.name.shouldbe_nil#thenIcoulddoitem.category.shouldbe_nilendend但我想要一些方法来使用
我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看rubyzip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d
我试图在一个项目中使用rake,如果我把所有东西都放到Rakefile中,它会很大并且很难读取/找到东西,所以我试着将每个命名空间放在lib/rake中它自己的文件中,我添加了这个到我的rake文件的顶部:Dir['#{File.dirname(__FILE__)}/lib/rake/*.rake'].map{|f|requiref}它加载文件没问题,但没有任务。我现在只有一个.rake文件作为测试,名为“servers.rake”,它看起来像这样:namespace:serverdotask:testdoputs"test"endend所以当我运行rakeserver:testid时
我的目标是转换表单输入,例如“100兆字节”或“1GB”,并将其转换为我可以存储在数据库中的文件大小(以千字节为单位)。目前,我有这个:defquota_convert@regex=/([0-9]+)(.*)s/@sizes=%w{kilobytemegabytegigabyte}m=self.quota.match(@regex)if@sizes.include?m[2]eval("self.quota=#{m[1]}.#{m[2]}")endend这有效,但前提是输入是倍数(“gigabytes”,而不是“gigabyte”)并且由于使用了eval看起来疯狂不安全。所以,功能正常,
作为我的Rails应用程序的一部分,我编写了一个小导入程序,它从我们的LDAP系统中吸取数据并将其塞入一个用户表中。不幸的是,与LDAP相关的代码在遍历我们的32K用户时泄漏了大量内存,我一直无法弄清楚如何解决这个问题。这个问题似乎在某种程度上与LDAP库有关,因为当我删除对LDAP内容的调用时,内存使用情况会很好地稳定下来。此外,不断增加的对象是Net::BER::BerIdentifiedString和Net::BER::BerIdentifiedArray,它们都是LDAP库的一部分。当我运行导入时,内存使用量最终达到超过1GB的峰值。如果问题存在,我需要找到一些方法来更正我的代
当我使用Bundler时,是否需要在我的Gemfile中将其列为依赖项?毕竟,我的代码中有些地方需要它。例如,当我进行Bundler设置时:require"bundler/setup" 最佳答案 没有。您可以尝试,但首先您必须用鞋带将自己抬离地面。 关于ruby-我需要将Bundler本身添加到Gemfile中吗?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/4758609/
Rails2.3可以选择随时使用RouteSet#add_configuration_file添加更多路由。是否可以在Rails3项目中做同样的事情? 最佳答案 在config/application.rb中:config.paths.config.routes在Rails3.2(也可能是Rails3.1)中,使用:config.paths["config/routes"] 关于ruby-on-rails-Rails3中的多个路由文件,我们在StackOverflow上找到一个类似的问题
对于具有离线功能的智能手机应用程序,我正在为Xml文件创建单向文本同步。我希望我的服务器将增量/差异(例如GNU差异补丁)发送到目标设备。这是计划:Time=0Server:hasversion_1ofXmlfile(~800kiB)Client:hasversion_1ofXmlfile(~800kiB)Time=1Server:hasversion_1andversion_2ofXmlfile(each~800kiB)computesdeltaoftheseversions(=patch)(~10kiB)sendspatchtoClient(~10kiBtransferred)Cl
我正在寻找执行以下操作的正确语法(在Perl、Shell或Ruby中):#variabletoaccessthedatalinesappendedasafileEND_OF_SCRIPT_MARKERrawdatastartshereanditcontinues. 最佳答案 Perl用__DATA__做这个:#!/usr/bin/perlusestrict;usewarnings;while(){print;}__DATA__Texttoprintgoeshere 关于ruby-如何将脚
我试图获取一个长度在1到10之间的字符串,并输出将字符串分解为大小为1、2或3的连续子字符串的所有可能方式。例如:输入:123456将整数分割成单个字符,然后继续查找组合。该代码将返回以下所有数组。[1,2,3,4,5,6][12,3,4,5,6][1,23,4,5,6][1,2,34,5,6][1,2,3,45,6][1,2,3,4,56][12,34,5,6][12,3,45,6][12,3,4,56][1,23,45,6][1,2,34,56][1,23,4,56][12,34,56][123,4,5,6][1,234,5,6][1,2,345,6][1,2,3,456][123