Nem csak egy cikket vagy egyéni képet szeretne, hanem aegész weboldal. Mi a legegyszerűbb módszer a szivattyúzásra?
A mai Kérdések és válaszok munkamenetét a SuperUser - a Stack Exchange, a Q & A weboldalak közösség által irányított csoportosulásának részlegével - köszönheti.
A kép háttérképként elérhető a GoodFon-on.
A kérdés
A SuperUser olvasónak egy egyszerű kérése van:
How can I download all pages from a website?
Any platform is fine.
Minden oldal, nincs kivétel. Joe egy küldetésben van.
A válasz
A Supermaster felhasználói Axxmasterr alkalmazásjavaslatot kínál:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Szívesen ajánljuk a HTTRACK-et. Ez egy érett alkalmazás, amely megkapja a munkát. Mi a helyzet az archivistákkal a nem Windows platformokon? Egy másik közreműködő, Jonik újabb érett és hatékony eszközt javasol:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
További részletekért tekintse meg a Wget kézikönyvét és annak példáit, vagy nézze meg ezeket:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Van valami a magyarázathoz? Hangzik ki a megjegyzésekben. Szeretne többet válaszolni a többi technikus-tudós Stack Exchange felhasználóiról? Nézze meg a teljes vitafonalat itt.