Pregunta

Estoy construyendo un sitio donde los usuarios pueden cargar contenido. Como siempre, apunto al dominio mundial, así que me gustaría evitar almacenar el mismo archivo dos veces. Por ejemplo, si un usuario intenta cargar el mismo archivo dos veces (al cambiar el nombre o simplemente olvidarse de lo que ha hecho en el pasado).

Mi enfoque actual es tener la base de datos que rastrea cada almacenamiento de archivos cargados de la siguiente información sobre cada archivo:

  • Tamaño del archivo en bytes
  • MD5 Suma de contenidos de archivos
  • SHA1 Suma de contenidos de archivos

    y luego un índice único en esas tres columnas. Usando dos hashes a Minimizar el riesgo de falsos positivos.

    Por lo tanto, mi pregunta es realmente: ¿Cuál es la probabilidad de dos archivos diferentes ("Mundo real") del mismo tamaño que tiene MD5 IDIAL y SHA1 hashes?

    o: ¿Hay un método más inteligente de complejidad similar (ONU)?

    (Entiendo que la probabilidad podría depender del tamaño del archivo).

    ¡Gracias!

¿Fue útil?

Solución

The probability of two real-world files of the same size having the same SHA1 hash is zero for all practical purposes. Some weaknesses in SHA1 have been found, but creating a file from a SHA1 hash and a size (1) is incredibly expensive in terms of computing power and (2) produces either garbage or the original file.

Adding MD5 to the mix is total overkill. If you don't trust SHA-1, then a better option is to switch to SHA-2.

If you're really paranoid, try comparing files with identical (size, SHA1) signatures. That will, however, have to read both the files entirely if they are equal.

Otros consejos

I believe storing MD5 and SHA1 hashes is adding unnecessary complexity and not good design. I would say storing the tuple of (SHA1, file size) would be by far good enough. Especially if you're starting a new community site, I'd safely use that solution and only create something more clever once it becomes a problem. As the saying goes, premature optimization is the root of all evil, and it's arguable if it'll be `optimizing'.

edit: I did not quantify the odds of you getting a MD5+SHA1 collision. I'd say it's zero. By a crude, back of the envelope calculation, the odds of two different files of arbitrary file sizes having identical (SHA1,MD5) tuple is 2^-288, which is zero as far as I'm concerned. Having to require identical file size reduces that even further.

You can use Broders implementation of the Rabin fingerprinting algorithm. It is faster to compute than sha1 and md5 and it is proven to be collision resistant. However, it is not considered to be safe against malicious attacks, it is possible fot someone to purposefuly alter the file in question sithout changing the fingerprint itself. If you just want to check the similarity of files, it is s pretty good solution.

C# implementation, not tested:

http://www.developpez.net/forums/d863959/dotnet/general-dotnet/contribuez/algorithm-rabin-fingerprint/

Licenciado bajo: CC-BY-SA con atribución
No afiliado a StackOverflow
scroll top