Nechcete len chcete článok alebo individuálny obrázok, ktorý chcetecelý webové stránky. Aký je najjednoduchší spôsob, ako to všetko vyčerpať?
Dnešná relácia otázok a odpovedí sa k nám pridelí zdvorilosťou SuperUser - podskupiny Stack Exchange, skupín webových stránok týkajúcich sa otázok a odpovedí.
Obrázok je k dispozícii ako tapeta v aplikácii GoodFon.
Otázka
Čítačka SuperUser Joe má jednoduchú požiadavku:
How can I download all pages from a website?
Any platform is fine.
Každá stránka bez výnimky. Joe je na misii.
Odpoveď
Sprostredkovateľ SuperUser Axxmasterr ponúka odporúčanie pre aplikáciu:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Srdečne môžeme odporúčať HTTRACK. Je to zrelá aplikácia, ktorá vykoná túto prácu. A čo archivári na platformách iných ako Windows? Ďalší prispievateľ Jonik navrhuje ďalší zrelý a výkonný nástroj:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
Viac podrobností nájdete v príručke Wget a jej príkladoch, alebo si ich môžete pozrieť:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Máte niečo doplniť vysvetlenie? Zvuk vypnúť v komentároch. Chcete si prečítať viac odpovedí od iných používateľov technológie Stack Exchange? Pozrite sa na celý diskusný príspevok tu.