homemsemnome
(usa Debian)
Enviado em 31/12/2016 - 14:53h
Após vagar muito porraí em busca de uma solução, finalmente encontrei as opções e parâmetros certos para se baixar uma página qualquer da internet e visualizá-la localmente no seu devido formato original sem estar conectado à internet.
$ wget -EHKkp -erobots=off --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" http://www.devmedia.com.br/introducao-ao-shell-script-no-linux/25778
Porém, existe um empecilho ao se utilizar esta combinação de opções e parâmetros: são criados mais de 10 diretórios a cada download, sendo que somente um deles contém o conteúdo em questão, e o resto intitulado de "facebook.com", "apis.google", etc., só contém arquivos CSS e essas coisas. E o ruim disso é que se a cada página baixada forem criados 10 diretórios, ficará f*** de encontrar o que eu quero depois nos meus arquivos né. Vejam as ibágens.
https://imgur.com/a/C5sYI
Alguma sugestão para corrigir esse pequeno empecilho? Eu já tentei tirar as opções -E, -H, e -K para ver se o problema persistia, mas o que aconteceu foi que embora não fossem criados mais de 10 diretórios, o site não podia mais ser exibido localmente no seu formato original. Ficava tudo zuado como antes. Também removi os parâmetros -erobots=off e o lance do user-agent mas o problema não é com eles. =\
Valeu.
Fonte:
https://superuser.com/questions/55040/save-a-single-web-page-with-background-images-with-wget