Domanda

Ho un file di grandi dimensioni che voglio scaricare da un server a cui ho accesso root. Ho anche diverse connessioni Internet simultanee diverse dalla mia macchina al server a mia disposizione.

Conoscete qualsiasi protocollo, client FTP (S), client HTTP, client AFP o qualsiasi altra combinazione di server e client del protocollo di trasferimento file che supporti download multithread su connessioni diverse?

È stato utile?

Soluzione

Un'opzione potrebbe essere il "vecchio stile" file multiparte ..

split -b 50m hugefile multiparthugefile_

Ciò creerà multiparthugefile_a , multiparthugefile_b e così via. Per ricongiungerli, usa il comando cat :

cat multiparthugefile_* > hugefile_rejoined

Per trasferire effettivamente i file utilizzando interfacce diverse, il flag wget --bind-address = ADDRESS dovrebbe funzionare:

--bind-address=ADDRESS    bind to ADDRESS (hostname or IP) on local host.

Questo problema sembra qualcosa su cui Bittorrent è in grado di fare bene, ma non sono sicuro di come lo faresti.

Forse crea un tracker temporaneo (o usa qualcosa come OpenBitTorrent.com ) ed esegui più client localmente - come fintanto che i client supportano la funzione di trasferimento LAN, ogni client acquisisce parti diverse dal server e le condivide con i client (locali). Saresti finito con più copie del file localmente, ma sarebbe trasferito su Internet solo una volta

Altri suggerimenti

Uno di questi ? Avrai bisogno di un server web che ospita lo stesso file su tutte le interfacce.

http: controlla uno dei vari download manager (ad esempio firefox con http://www.downthemall.net/ estensione) ci sono anche downloader ftp che supportano più flussi

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top