找回密码

wget 웹사이트 다운로드

또한, wget의 현대 버전 (즉, 중반 2019 이 코멘트를 쓰고 있을 때까지!) JS 및 CSS 파일 등을 추출 하는 `깊은 파고`아무 런도 없을 것 이다. 분명히 그것은 기적을 만들 수 없으며 모든 것을 다루지 않습니다. 나는 이미지 맵에 몇 가지 문제가 있었다, 예를 들어 (뭔가 아무도 요즘 사용하지 않는), 뿐만 아니라 자바 스크립트에 의해 이동 중에도 생성 된 HTML. 그리고 물론 그것은 실제로 사용자가 어떤 브라우저에 그들의 콘텐츠를 조정 하는 매우 복잡 하 고 동적 웹사이트와 함께 할 수 있는 제한이 있다, 페이지별로-특히 같은 페이지의 다른 버전모두 동일한 URL (나쁜 연습 IMHO). 여전히, 그것은 많은 상황에 대 한 유용한 남아, 그리고 결과 당신이 archive.org 얻을 보다 더 나은… 남은 것은 전체 웹 사이트를 다운로드하려면 이 명령을 실행하는 것입니다. 필요에 맞게 조정: 적어도 URL의 끝에 URL을 변경 합니다. 대상 사이트의 크기에 따라 몇 시간, 심지어 며칠이 걸릴 수 있습니다. 그리고 아카이브 크기를 뒤늦게 추측할 수 있기 때문에 진행 상황을 볼 수 없습니다. 단일 wget 명령을 단독으로 사용하여 사이트에서 다운로드하거나 입력 파일을 설정하여 여러 사이트에서 여러 파일을 다운로드할 수 있습니다.

wget는 인터넷에서 리소스를 다운로드하기위한 좋은 도구입니다. 기본 사용은 wget URL: 덕분에 “경로” 환경 변수, 우리는 우리가 c에 wget.exe를 복사 해야 하는 것을 알고:WindowsSystem32 폴더 위치. wget는 일반적으로 웹 사이트의 완전한 오프라인 거울에 대해 잘 작동하지 않습니다. 파서로 인해 스타일 시트, 스크립트, 이미지 와 같은 누락 된 것이 항상 있습니다. 그것은 단순히이 작업에 대 한 올바른 도구. HTTrack은 wget보다 훨씬 느리지만 강력한 파서입니다. 그것은 GPL이며 대부분의 리눅스 배포판에서 사용할 수 있습니다. 문서 및 sorce 코드에서 사용할 수 http://www.httrack.com 경우에 당신은 당신이 가지고 인터넷에 액세스하지 않고도 볼 수있는 사이트의 오프라인 사본을 만들 려면. wget를 사용 하 여 이러한 복사본을 쉽게 만들 수 있습니다.: 예: wget-mkEpnp –없음-확인 인증서 https://example.com 따라서 당신은 당신의 자신의 웹사이트를 가지고 있는 경우이 하나의 간단한 명령을 사용 하 여 완전 한 백업을 만들 수 있습니다. 봇은 웹 사이트의 대화형 부분에 도달하고 검색을 위한 이상한 쿼리를 찾을 때 미쳐버릴 수 있습니다.

특정 단어가 포함된 URL을 거부하여 사이트의 특정 부분이 다운로드되지 않도록 할 수 있습니다. 대부분의 경우 wget가 적어도 한 번 실패 한 후 기각해야 할 것을 발견 할 것입니다. 나를 위해, 그것은 너무 긴 파일 이름을 생성하고, 모든 것이 동결. 사이트의 아티클에는 짧은 URL이 있지만 URL의 쿼리 문자열이 길면 파일 이름이 길어질 수 있습니다.

相关推荐

    没有相关文章!