Skip to main content

Kā es varu lejupielādēt visu tīmekļa vietni?

Kā es varu lejupielādēt visu tīmekļa vietni?

Geoffrey Carr

Jūs nevēlaties, lai būtu tikai raksts vai individuāls attēlsveselu mājas lapa. Kāds ir vienkāršākais veids, kā visu sifonēt?

Šodienas jautājumu un atbilžu sesija mums priecājas par SuperUser - Stack Exchange dalību, kas ir kopienas vadīta Q & A tīmekļa vietņu grupa.

Attēls ir pieejams fonam GoodFon.

Jautājums

SuperUser lasītājs Joe ir vienkāršs pieprasījums:

How can I download all pages from a website?

Any platform is fine.

Katra lapa nav izņēmums. Joe ir misijā.

Atbilde

SuperUser ieguldītājs Axxmasterr piedāvā pieteikuma ieteikumu:

http://www.httrack.com/

HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.

This program will do all you require of it.

Happy hunting!

Mēs varam sirsnīgi ieteikt HTTRACK. Tas ir nobriedis lietojumprogramma, kas iegūst darbu. Kā ar arhivāriem ārpus platformām, kas nav Windows? Vēl viens līdzstrādnieks Jonik ierosina vēl vienu pilnvērtīgu un spēcīgu rīku:

Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).

You’d do something like:

wget -r --no-parent http://site.com/songs/

Lai iegūtu sīkāku informāciju, skatiet Wget rokasgrāmatu un tā piemērus vai apskatiet šos:

  • http://linuxreviews.org/quicktips/wget/
  • http://www.krazyworks.com/?p=591

Vai kaut ko pievienot paskaidrojumam? Skatieties komentāros. Vēlaties lasīt citas atbildes no citiem tehnoloģiju savvy Stack Exchange lietotājiem? Šeit skatiet pilnu diskusiju pavedienu.

Link
Plus
Send
Send
Pin