Wget ਉਪਯੋਗਤਾ ਤੁਹਾਨੂੰ ਲੀਨਕਸ ਕਮਾਂਡ ਲਾਈਨ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਵੈਬ ਪੇਜਾਂ, ਫਾਈਲਾਂ ਅਤੇ ਚਿੱਤਰਾਂ ਨੂੰ ਵੈਬ ਤੋਂ ਡਾਊਨਲੋਡ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦੀ ਹੈ.
ਤੁਸੀਂ ਸਾਈਟ ਤੋਂ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਆਪਣੇ ਆਪ ਇਕ ਸਿੰਗਲ ਡਬਲ Wget ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ ਜਾਂ ਬਹੁਤੀਆਂ ਸਾਈਟਾਂ ਲਈ ਮਲਟੀਪਲ ਫਾਈਲਾਂ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਇੱਕ ਇਨਪੁਟ ਫਾਈਲ ਸੈਟ ਅਪ ਕਰ ਸਕਦੇ ਹੋ.
ਦਸਤੀ ਪੇਜ਼ ਦੇ ਅਨੁਸਾਰ wget ਵੀ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ ਭਾਵੇਂ ਕਿ ਉਪਭੋਗਤਾ ਨੇ ਸਿਸਟਮ ਤੋਂ ਲਾਗਆਉਟ ਕੀਤਾ ਹੋਵੇ. ਅਜਿਹਾ ਕਰਨ ਲਈ ਤੁਸੀਂ nohup ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰੋਗੇ.
Wget ਸਹੂਲਤ ਇੱਕ ਡਾਉਨਲੋਡ ਦੀ ਦੁਬਾਰਾ ਕੋਸ਼ਿਸ਼ ਕਰੇਗੀ ਭਾਵੇਂ ਕਿ ਕਨੈਕਸ਼ਨ ਘੱਟ ਜਾਵੇ, ਜਦੋਂ ਇਹ ਸੰਭਵ ਹੋਵੇ ਕਿ ਕਨੈਕਸ਼ਨ ਰਿਟਰਨ ਕਦੋਂ ਬੰਦ ਹੋ ਗਿਆ ਹੈ, ਮੁੜ ਤੋਂ ਸ਼ੁਰੂ ਕੀਤਾ ਗਿਆ ਹੈ.
ਤੁਸੀਂ ਵੈਬੈਟ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਮੁੱਚੇ ਵੈਬ ਸਾਈਟਾਂ ਡਾਊਨਲੋਡ ਕਰ ਸਕਦੇ ਹੋ ਅਤੇ ਲਿੰਕਾਂ ਨੂੰ ਸਥਾਨਕ ਸਰੋਤਾਂ ਵੱਲ ਭੇਜ ਸਕਦੇ ਹੋ ਤਾਂ ਜੋ ਤੁਸੀਂ ਇੱਕ ਵੈਬਸਾਈਟ ਔਫਲਾਈਨ ਵੇਖ ਸਕੋ.
ਹੇਠ ਲਿਖੀਆਂ ਵਸਤੂਆਂ ਦੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਹਨ:
- HTTP, HTTPS ਅਤੇ FTP ਵਰਤਦੇ ਹੋਏ ਫਾਈਲਾਂ ਡਾਊਨਲੋਡ ਕਰੋ
- ਡਾਊਨਲੋਡ ਮੁੜ ਸ਼ੁਰੂ ਕਰੋ
- ਅਸਲੀ ਪੰਨਿਆਂ ਨੂੰ ਡਾਊਨਲੋਡ ਕੀਤੇ ਗਏ ਵੈਬ ਪੇਜਾਂ ਵਿੱਚ ਸੰਪੂਰਨ ਲਿੰਕ ਨੂੰ ਸੈਟੇਲਾਈਟ ਵਿੱਚ ਤਬਦੀਲ ਕਰੋ ਤਾਂ ਜੋ ਵੈਬਸਾਈਟਾਂ ਔਫਲਾਈਨ ਦਿਖਾਈਆਂ ਜਾ ਸਕਦੀਆਂ ਹਨ
- HTTP ਪਰਾਕਸੀ ਅਤੇ ਕੂਕੀਜ਼ ਦਾ ਸਮਰਥਨ ਕਰਦਾ ਹੈ
- ਸਥਿਰ HTTP ਕੁਨੈਕਸ਼ਨਾਂ ਦਾ ਸਮਰਥਨ ਕਰਦਾ ਹੈ
- ਜਦੋਂ ਤੁਸੀਂ ਲੌਗ ਇਨ ਨਹੀਂ ਹੁੰਦੇ ਹੋ ਤਾਂ ਵੀ ਬੈਕਗ੍ਰਾਉਂਡ ਵਿੱਚ ਚਲਾ ਸਕਦੇ ਹੋ
- ਲੀਨਕਸ ਅਤੇ ਵਿੰਡੋਜ਼ ਤੇ ਕੰਮ ਕਰਦਾ ਹੈ
Wget ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ ਇੱਕ ਵੈਬਸਾਈਟ ਡਾਊਨਲੋਡ ਕਰਨਾ
ਇਸ ਗਾਈਡ ਲਈ, ਮੈਂ ਤੁਹਾਨੂੰ ਦਿਖਾਵਾਂਗਾ ਕਿ ਮੈਂ ਆਪਣਾ ਨਿੱਜੀ ਬਲੌਗ ਕਿਵੇਂ ਡਾਊਨਲੋਡ ਕਰਾਂ?
wget www.everydaylinuxuser.com
Mkdir ਕਮਾਂਡ ਦੀ ਵਰਤੋ ਕਰਕੇ ਆਪਣੀ ਮਸ਼ੀਨ 'ਤੇ ਤੁਹਾਡਾ ਆਪਣਾ ਫੋਲਡਰ ਬਣਾਉਣਾ ਹੈ ਅਤੇ ਫਿਰ cd ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਫੋਲਡਰ ਵਿੱਚ ਭੇਜਣਾ.
ਉਦਾਹਰਣ ਲਈ:
mkdir dailylinuxuser
ਸੀ ਡੀ ਰੋਜ਼ਿਨਿਲਕਸੁਜ਼ਰ
wget www.everydaylinuxuser.com
ਨਤੀਜਾ ਇੱਕ ਸਿੰਗਲ index.html ਫਾਈਲ ਹੈ. ਇਸਦੇ ਆਪਣੇ ਆਪ ਤੇ, ਇਹ ਫਾਈਲ ਬੜੀ ਬੇਕਾਰ ਹੈ ਕਿਉਂਕਿ ਸਮੱਗਰੀ ਨੂੰ ਅਜੇ ਵੀ ਗੂਗਲ ਤੋਂ ਖਿੱਚਿਆ ਗਿਆ ਹੈ ਅਤੇ ਚਿੱਤਰ ਅਤੇ ਸਟਾਇਲਸ਼ੀਟਾਂ ਅਜੇ ਵੀ ਗੂਗਲ 'ਤੇ ਹਨ.
ਪੂਰੀ ਸਾਈਟ ਅਤੇ ਸਾਰੇ ਪੰਨਿਆਂ ਨੂੰ ਡਾਉਨਲੋਡ ਕਰਨ ਲਈ ਤੁਸੀਂ ਹੇਠਾਂ ਦਿੱਤੇ ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ:
wget -r www.everydaylinuxuser.com
ਇਹ ਪੇਜ਼ਾਂ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ 5 ਪੱਧਰ ਦੀ ਡੂੰਘਾਈ ਤੱਕ ਡਾਊਨਲੋਡ ਕਰਦਾ ਹੈ.
5 ਪੱਧਰ ਦੀ ਡੂੰਘੀ ਸਾਈਟ ਤੋਂ ਸਭ ਕੁਝ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਕਾਫੀ ਨਹੀਂ ਹੋ ਸਕਦਾ. ਤੁਸੀਂ ਹੇਠਲੇ ਪੱਧਰ 'ਤੇ ਜਾਣ ਲਈ ਲੈਵਲ ਦੀ ਗਿਣਤੀ ਨਿਰਧਾਰਤ ਕਰਨ ਲਈ -l ਸਵਿੱਚ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ:
wget -r -l10 www.everydaylinuxuser.com
ਜੇ ਤੁਸੀਂ ਅਨੰਤ ਰਿਕਾਰਜਨ ਚਾਹੁੰਦੇ ਹੋ ਤਾਂ ਤੁਸੀਂ ਹੇਠ ਦਿੱਤੇ ਨੂੰ ਵਰਤ ਸਕਦੇ ਹੋ:
wget -r -l inf www.everydaylinuxuser.com
ਤੁਸੀਂ 0 ਦੇ ਨਾਲ inf ਨੂੰ ਬਦਲ ਸਕਦੇ ਹੋ ਜਿਸਦਾ ਮਤਲਬ ਉਹੀ ਹੈ.
ਅਜੇ ਵੀ ਇਕ ਹੋਰ ਸਮੱਸਿਆ ਹੈ. ਤੁਸੀਂ ਸਾਰੇ ਪੰਨਿਆਂ ਨੂੰ ਸਥਾਨਕ ਤੌਰ ਤੇ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹੋ ਪਰ ਪੰਨਿਆਂ ਦੇ ਸਾਰੇ ਲਿੰਕ ਅਜੇ ਵੀ ਆਪਣੇ ਮੂਲ ਸਥਾਨ ਵੱਲ ਇਸ਼ਾਰਾ ਕਰਦੇ ਹਨ. ਇਸ ਲਈ ਪੇਜਾਂ ਦੇ ਲਿੰਕ ਦੇ ਵਿਚਕਾਰ ਸਥਾਨਕ ਤੌਰ ਤੇ ਕਲਿਕ ਕਰਨਾ ਸੰਭਵ ਨਹੀਂ ਹੈ.
ਤੁਸੀਂ -k ਸਵਿੱਚ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਇਸ ਸਮੱਸਿਆ ਨੂੰ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹੋ ਜੋ ਪੰਨਿਆਂ ਦੇ ਸਾਰੇ ਲਿੰਕਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਸਥਾਨਕ ਤੌਰ ਤੇ ਡਾਉਨਲੋਡ ਹੋਏ ਸਮਾਨ ਨੂੰ ਦਰਸਾਉਣ ਲਈ ਪਰਿਵਰਤਿਤ ਕਰਦਾ ਹੈ:
wget -r -k www.everydaylinuxuser.com
ਜੇ ਤੁਸੀਂ ਕਿਸੇ ਵੈਬਸਾਈਟ ਦਾ ਪੂਰਾ ਪ੍ਰਤੀਬਿੰਬ ਪ੍ਰਾਪਤ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ ਤਾਂ ਤੁਸੀਂ ਹੇਠਾਂ ਲਿਖੇ ਸਵਿੱਚ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ ਜੋ ਕਿ -r -k ਅਤੇ -l ਸਵਿੱਚਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਲੋੜ ਨੂੰ ਦੂਰ ਕਰਦਾ ਹੈ.
wget -m www.everydaylinuxuser.com
ਇਸ ਲਈ ਜੇਕਰ ਤੁਹਾਡੇ ਕੋਲ ਆਪਣੀ ਖੁਦ ਦੀ ਵੈੱਬਸਾਈਟ ਹੈ ਤਾਂ ਤੁਸੀਂ ਇਸ ਸਧਾਰਨ ਹੁਕਮ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਇੱਕ ਪੂਰਨ ਬੈਕਅੱਪ ਬਣਾ ਸਕਦੇ ਹੋ.
ਇੱਕ ਬੈਕਗ੍ਰਾਉਂਡ ਕਮਾਂਡ ਦੀ ਤਰ੍ਹਾਂ wget ਚਲਾਓ
ਤੁਸੀਂ wget ਨੂੰ ਬੈਕਗਰਾਊਂਡ ਕਮਾਂਡ ਦੇ ਤੌਰ ਤੇ ਚਲਾਉਣ ਲਈ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹੋ ਜਿਸ ਨਾਲ ਤੁਸੀ ਆਪਣੇ ਕੰਮ ਨੂੰ ਟਰਮੀਨਲ ਵਿੰਡੋ ਵਿੱਚ ਪ੍ਰਾਪਤ ਕਰ ਸਕੋਗੇ ਜਦੋਂ ਫਾਈਲਾਂ ਡਾਉਨਲੋਡ ਹੋਵੇਗੀ.
ਬਸ ਹੇਠ ਦਿੱਤੀ ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰੋ:
wget -b www.everydaylinuxuser.com
ਤੁਸੀਂ ਸਵਿੱਚਾਂ ਨੂੰ ਜੋੜ ਸਕਦੇ ਹੋ ਸਾਈਟ ਨੂੰ ਪ੍ਰਤਿਬਿੰਬਤ ਕਰਦਿਆਂ ਬੈਕਗ੍ਰਾਉਂਡ ਵਿੱਚ wget ਕਮਾਂਡ ਨੂੰ ਚਲਾਉਣ ਲਈ, ਤੁਸੀਂ ਹੇਠਲੀ ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰੋਗੇ:
wget -b -m www.everydaylinuxuser.com
ਤੁਸੀਂ ਅੱਗੇ ਇਸ ਨੂੰ ਆਸਾਨ ਕਰ ਸਕਦੇ ਹੋ:
wget -bm www.everydaylinuxuser.com
ਲਾਗਿੰਗ
ਜੇ ਤੁਸੀਂ ਬੈਕਗ੍ਰਾਊਂਡ ਵਿੱਚ wget ਕਮਾਂਡ ਚਲਾ ਰਹੇ ਹੋ ਤਾਂ ਤੁਸੀਂ ਕਿਸੇ ਵੀ ਸਧਾਰਨ ਸੁਨੇਹੇ ਨਹੀਂ ਦੇਖ ਸਕੋਗੇ ਜੋ ਇਹ ਸਕਰੀਨ ਤੇ ਭੇਜਦੀ ਹੈ.
ਤੁਸੀਂ ਇੱਕ ਲੌਗ ਫਾਇਲ ਤੇ ਭੇਜੇ ਗਏ ਸਾਰੇ ਸੁਨੇਹਿਆਂ ਨੂੰ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹੋ, ਤਾਂ ਕਿ ਤੁਸੀਂ ਪੇਂਟ ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਕਿਸੇ ਵੀ ਸਮੇਂ ਤਰੱਕੀ ਦੀ ਜਾਂਚ ਕਰ ਸਕੋ.
Wget ਕਮਾਂਡ ਤੋਂ ਇੱਕ ਲਾਗ ਫਾਇਲ ਵਿੱਚ ਆਉਟਪੁੱਟ ਜਾਣਕਾਰੀ ਲਈ ਹੇਠ ਦਿੱਤੀ ਕਮਾਂਡ ਵਰਤੋਂ:
wget -o / path / to / mylogfile. www.everydaylinuxuser.com
ਉਲਟਾ, ਜ਼ਰੂਰ, ਕਿਸੇ ਵੀ ਲਾਗਿੰਗ ਦੀ ਲੋੜ ਨਹੀਂ ਹੈ ਅਤੇ ਸਕ੍ਰੀਨ ਤੇ ਕੋਈ ਆਉਟਪੁੱਟ ਨਹੀਂ ਹੈ. ਸਭ ਆਉਟਪੁੱਟ ਛੱਡਣ ਲਈ ਹੇਠ ਦਿੱਤੀ ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰੋ:
wget -q www.everydaylinuxuser.com
ਮਲਟੀਪਲ ਸਾਇਟਾਂ ਤੋਂ ਡਾਊਨਲੋਡ ਕਰੋ
ਤੁਸੀਂ ਕਈ ਵੱਖਰੀਆਂ ਸਾਈਟਾਂ ਤੋਂ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਇੱਕ ਇਨਪੁਟ ਫਾਈਲ ਸੈਟ ਅਪ ਕਰ ਸਕਦੇ ਹੋ.
ਆਪਣੇ ਪਸੰਦੀਦਾ ਸੰਪਾਦਕ ਜਾਂ ਬਿੱਲੀ ਕਮਾਂਡ ਨਾਲ ਇੱਕ ਫਾਇਲ ਖੋਲੋ ਅਤੇ ਫਾਇਲ ਦੀਆਂ ਹਰੇਕ ਲਾਈਨ ਤੋਂ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਸਾਈਟਾਂ ਅਤੇ ਲਿੰਕ ਨੂੰ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਸ਼ੁਰੂ ਕਰੋ.
ਫਾਇਲ ਨੂੰ ਸੰਭਾਲੋ ਅਤੇ ਫੇਰ ਹੇਠਾਂ ਦਿੱਤੀ wget ਕਮਾਂਡ ਚਲਾਓ:
wget -i / path / to / inputfile
ਆਪਣੀ ਖੁਦ ਦੀ ਵੈਬਸਾਈਟ ਬੈਕਅਪ ਕਰਨ ਤੋਂ ਇਲਾਵਾ ਰੇਲਗੱਡੀ ਨੂੰ ਪੜਨ ਲਈ ਕੁਝ ਲੱਭਣ ਤੋਂ ਇਲਾਵਾ, ਇਹ ਸੰਭਾਵਨਾ ਨਹੀਂ ਹੈ ਕਿ ਤੁਸੀਂ ਪੂਰੀ ਵੈਬਸਾਈਟ ਡਾਊਨਲੋਡ ਕਰਨਾ ਚਾਹੋਗੇ.
ਤੁਸੀਂ ਪ੍ਰਤੀਬਿੰਬਾਂ ਦੇ ਨਾਲ ਇੱਕ ਸਿੰਗਲ URL ਨੂੰ ਡਾਊਨਲੋਡ ਕਰਨ ਦੀ ਜਾਂ ਸ਼ਾਇਦ ਫਾਈਲਾਂ ਜਿਵੇਂ ਕਿ ਜ਼ਿਪ ਫਾਈਲਾਂ, ਆਈ.ਐਸ.ਓ. ਫਾਈਲਾਂ ਜਾਂ ਚਿੱਤਰ ਫਾਈਲਾਂ ਨੂੰ ਡਾਊਨਲੋਡ ਕਰਨ ਦੀ ਜ਼ਿਆਦਾ ਸੰਭਾਵਨਾ ਹੈ
ਇਸ ਨੂੰ ਧਿਆਨ ਵਿਚ ਰੱਖਦੇ ਹੋਏ ਤੁਸੀਂ ਇਨਪੁਟ ਫਾਈਲ ਵਿਚ ਨਿਮਨਲਿਖਤ ਨੂੰ ਟਾਈਪ ਨਹੀਂ ਕਰਨਾ ਚਾਹੁੰਦੇ ਕਿਉਂਕਿ ਇਹ ਸਮਾਂ ਬਰਬਾਦ ਕਰ ਰਿਹਾ ਹੈ:
- http://www.myfileserver.com/file1.zip
- http://www.myfileserver.com/file2.zip
- http://www.myfileserver.com/file3.zip
ਜੇ ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ ਕਿ ਮੂਲ URL ਹਮੇਸ਼ਾਂ ਇਕੋ ਜਿਹਾ ਹੀ ਹੋਣਾ ਹੈ ਤਾਂ ਤੁਸੀਂ ਇਨਪੁਟ ਫਾਈਲ ਵਿੱਚ ਅੱਗੇ ਦਿੱਤੇ ਨੂੰ ਹੀ ਨਿਰਦਿਸ਼ਟ ਕਰ ਸਕਦੇ ਹੋ:
- file1.zip
- file2.zip
- file3.zip
ਤੁਸੀਂ ਹੇਠਾਂ ਦਿੱਤੇ ਅਨੁਸਾਰ wget ਕਮਾਂਡ ਦੇ ਹਿੱਸੇ ਵਜੋਂ ਬੇਸ URL ਪ੍ਰਦਾਨ ਕਰ ਸਕਦੇ ਹੋ:
wget -B http://www.myfileserver.com -i / path / to / inputfile
ਦੁਬਾਰਾ ਕੋਸ਼ਿਸ਼ ਕਰੋ ਵਿਕਲਪ
ਜੇ ਤੁਸੀਂ ਕਿਸੇ ਇਨਪੁਟ ਫਾਈਲ ਵਿਚ ਡਾਉਨਲੋਡ ਕਰਨ ਲਈ ਫਾਈਲਾਂ ਦੀ ਇਕ ਕਿਊਰੀ ਸਥਾਪਤ ਕੀਤੀ ਹੈ ਅਤੇ ਤੁਸੀਂ ਆਪਣੇ ਕੰਪਿਊਟਰ ਨੂੰ ਸਾਰੀ ਰਾਤ ਰਾਤ ਨੂੰ ਫਾਇਲ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਛੱਡ ਦਿੰਦੇ ਹੋ ਤਾਂ ਜਦੋਂ ਤੁਸੀਂ ਸਵੇਰੇ ਹੇਠਾਂ ਆਉਂਦੇ ਹੋ ਤਾਂ ਇਹ ਪਤਾ ਕਰਨ ਲਈ ਕਿ ਇਹ ਪਹਿਲੀ ਫਾਈਲ ਤੇ ਫਸ ਗਈ ਹੈ ਅਤੇ ਸਾਰੀ ਰਾਤ ਮੁੜ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਿਹਾ ਹੈ
ਤੁਸੀਂ ਹੇਠਲੀ ਸਵਿੱਚ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਰਿਟਰਨ ਦੀ ਗਿਣਤੀ ਨਿਸ਼ਚਿਤ ਕਰ ਸਕਦੇ ਹੋ:
wget -t 10 -i / path / to / inputfile
ਤੁਸੀਂ ਉਪ-ਕਮਾਂਡ ਨੂੰ -T ਸਵਿੱਚ ਨਾਲ ਜੋੜ ਸਕਦੇ ਹੋ, ਜਿਸ ਨਾਲ ਤੁਸੀਂ ਸਮਾਂ-ਸਤਰਾਂ ਨੂੰ ਅੱਗੇ ਦਿੱਤੇ ਅਨੁਸਾਰ ਨਿਰਧਾਰਤ ਕਰ ਸਕਦੇ ਹੋ:
wget -t 10 -T 10 -i / path / to / inputfile
ਉਪਰੋਕਤ ਕਮਾਂਡ 10 ਵਾਰ ਮੁੜ ਕੋਸ਼ਿਸ਼ ਕਰੇਗਾ ਅਤੇ ਫਾਇਲ ਵਿੱਚ ਹਰੇਕ ਲਿੰਕ ਲਈ 10 ਸੈਕੰਡ ਲਈ ਜੁੜਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰੇਗਾ.
ਇਹ ਵੀ ਕਾਫ਼ੀ ਪਰੇਸ਼ਾਨ ਹੈ ਜਦੋਂ ਤੁਸੀਂ ਇੱਕ 4 ਗੀਗਾਬਾਈਟ ਫਾਈਲ ਦੇ 75% ਨੂੰ ਹੌਲੀ ਬਰਾਡਬੈਂਡ ਕਨੈਕਸ਼ਨ ਤੇ 75% ਤੋਂ ਘੱਟ ਡ੍ਰੌਪ ਕੀਤਾ ਹੈ, ਸਿਰਫ਼ ਤੁਹਾਡੇ ਕੁਨੈਕਸ਼ਨ ਨੂੰ ਛੱਡਣ ਲਈ.
ਤੁਸੀਂ ਮੁੜ ਕੋਸ਼ਿਸ਼ ਕਰਨ ਲਈ wget ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ ਜਿਸ ਤੋਂ ਹੇਠਾਂ ਦਿੱਤੀ ਕਮਾਂਡ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਡਾਊਨਲੋਡ ਕਰਨਾ ਬੰਦ ਕਰ ਦਿੱਤਾ ਗਿਆ ਹੈ:
wget -c www.myfileserver.com/file1.zip
ਜੇ ਤੁਸੀਂ ਕਿਸੇ ਸਰਵਰ ਨੂੰ ਰੋਕ ਰਹੇ ਹੋ ਤਾਂ ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਹੋਸਟ ਨੂੰ ਇਹ ਬਹੁਤ ਜ਼ਿਆਦਾ ਪਸੰਦ ਨਾ ਹੋਵੇ ਅਤੇ ਤੁਹਾਡੇ ਬਲਾਕ ਜਾਂ ਤੁਹਾਡੇ ਬੇਨਤੀਆਂ ਨੂੰ ਖਤਮ ਕਰ ਦੇਣ.
ਤੁਸੀਂ ਇੱਕ ਉਡੀਕ ਮਿਆਦ ਨਿਸ਼ਚਿਤ ਕਰ ਸਕਦੇ ਹੋ ਜੋ ਦੱਸਦੀ ਹੈ ਕਿ ਹਰੇਕ ਪ੍ਰਾਪਤੀ ਦੇ ਵਿੱਚ ਕਿੰਨੀ ਦੇਰ ਉਡੀਕ ਕਰਨੀ ਹੈ:
wget -w 60 -i / path / to / inputfile
ਉਪਰੋਕਤ ਕਮਾਂਡ ਹਰੇਕ ਡਾਊਨਲੋਡ ਦੇ ਵਿਚਕਾਰ 60 ਸਕਿੰਟਾਂ ਦੀ ਉਡੀਕ ਕਰੇਗੀ. ਇਹ ਲਾਭਦਾਇਕ ਹੈ ਜੇ ਤੁਸੀਂ ਇੱਕ ਸਰੋਤ ਤੋਂ ਬਹੁਤ ਸਾਰੀਆਂ ਫਾਇਲਾਂ ਡਾਊਨਲੋਡ ਕਰ ਰਹੇ ਹੋ.
ਕੁਝ ਵੈਬ ਹੋਸਟਾਂ ਵਾਰਵਾਰਤਾ ਨੂੰ ਸਪਸ਼ਟ ਕਰ ਸਕਦੀਆਂ ਹਨ ਅਤੇ ਤੁਹਾਨੂੰ ਕਿਸੇ ਵੀ ਤਰ੍ਹਾਂ ਬਲੌਕ ਕਰ ਸਕਦੀਆਂ ਹਨ. ਤੁਸੀਂ ਇੰਝ ਵੇਖ ਸਕਦੇ ਹੋ ਕਿ ਤੁਸੀਂ ਉਡੀਕ ਪ੍ਰੋਗਰਾਮ ਨੂੰ ਰਲਵੇਂ ਦੇ ਤੌਰ ਤੇ ਨਹੀਂ ਵਰਤ ਰਹੇ ਹੋ:
wget --random-wait -i / path / to / inputfile
ਡਾਊਨਲੋਡ ਦੀਆਂ ਹੱਦਾਂ ਦੀ ਸੁਰੱਖਿਆ
ਬਹੁਤ ਸਾਰੇ ਇੰਟਰਨੈਟ ਸੇਵਾ ਪ੍ਰਦਾਤਾ ਅਜੇ ਵੀ ਤੁਹਾਡੇ ਬ੍ਰੌਡਬੈਂਡ ਉਪਯੋਗ ਲਈ ਡਾਊਨਲੋਡ ਲਿਮਤਾਂ ਲਾਗੂ ਕਰਦੇ ਹਨ, ਖਾਸ ਕਰਕੇ ਜੇ ਤੁਸੀਂ ਕਿਸੇ ਸ਼ਹਿਰ ਤੋਂ ਬਾਹਰ ਰਹਿੰਦੇ ਹੋ.
ਤੁਸੀਂ ਇੱਕ ਕੋਟਾ ਜੋੜਨਾ ਚਾਹ ਸਕਦੇ ਹੋ ਤਾਂ ਜੋ ਤੁਸੀਂ ਡਾਉਨਲੋਡ ਸੀਮਾ ਨੂੰ ਫਰੋਲ ਨਾ ਕਰੋ. ਤੁਸੀਂ ਅਜਿਹਾ ਇਸ ਤਰਾਂ ਕਰ ਸਕਦੇ ਹੋ:
wget -q 100m -i / path / to / inputfile
ਯਾਦ ਰੱਖੋ ਕਿ -q ਕਮਾਂਡ ਕਿਸੇ ਇੱਕ ਫਾਇਲ ਨਾਲ ਕੰਮ ਨਹੀਂ ਕਰੇਗੀ.
ਇਸ ਲਈ ਜੇ ਤੁਸੀਂ ਇੱਕ ਫਾਇਲ ਡਾਉਨਲੋਡ ਕਰਦੇ ਹੋ ਜੋ 2 ਗੀਗਾਬਾਈਟ ਅਕਾਰ ਹੈ, -q 1000m ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ ਫਾਇਲ ਡਾਉਨਲੋਡਿੰਗ ਨੂੰ ਰੋਕ ਨਹੀਂ ਰਹੇਗਾ.
ਕੋਟਾ ਸਿਰਫ਼ ਉਦੋਂ ਲਾਗੂ ਹੁੰਦਾ ਹੈ ਜਦੋਂ ਇਕ ਸਾਈਟ ਤੋਂ ਲਗਾਤਾਰ ਡਾਊਨਲੋਡ ਕਰਨਾ ਜਾਂ ਇਨਪੁਟ ਫਾਈਲ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ.
ਸੁਰੱਖਿਆ ਦੇ ਮਾਧਿਅਮ ਤੋਂ ਪ੍ਰਾਪਤ ਕਰਨਾ
ਕੁਝ ਸਾਈਟਾਂ ਲਈ ਲੋੜੀਂਦੀ ਸਮੱਗਰੀ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਲੌਗਇਨ ਕਰਨ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ ਜੋ ਤੁਸੀਂ ਡਾਉਨਲੋਡ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ.
ਤੁਸੀਂ ਉਪਭੋਗਤਾ ਨਾਮ ਅਤੇ ਪਾਸਵਰਡ ਨਿਸ਼ਚਿਤ ਕਰਨ ਲਈ ਹੇਠਾਂ ਦਿੱਤੇ ਸਵਿਚਾਂ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ.
wget --user = yourusername --password = yourpassword
ਇੱਕ ਮਲਟੀ ਯੂਜਰ ਸਿਸਟਮ ਤੇ ਨੋਟ ਕਰੋ ਜੇਕਰ ਕੋਈ ਵੀ ps ਕਮਾਂਡ ਚਲਾਉਦਾ ਹੈ ਤਾਂ ਉਹ ਤੁਹਾਡਾ ਯੂਜ਼ਰਨੇਮ ਅਤੇ ਪਾਸਵਰਡ ਵੇਖ ਸਕਣਗੇ.
ਹੋਰ ਡਾਊਨਲੋਡ ਚੋਣਾਂ
ਡਿਫਾਲਟ ਰੂਪ ਵਿੱਚ -r ਸਵਿੱਚ ਲਗਾਤਾਰ ਸਮੱਗਰੀ ਡਾਊਨਲੋਡ ਕਰਦਾ ਹੈ ਅਤੇ ਡਾਇਰੈਕਟਰੀ ਬਣਾਉਂਦਾ ਹੈ ਜਿਵੇਂ ਇਹ ਜਾਂਦਾ ਹੈ.
ਹੇਠਾਂ ਦਿੱਤੀ ਸਵਿੱਚ ਦੀ ਵਰਤੋਂ ਨਾਲ ਤੁਸੀਂ ਇੱਕ ਫੋਲਡਰ ਵਿੱਚ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਸਾਰੀਆਂ ਫਾਈਲਾਂ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹੋ:
wget -nd -r
ਇਸ ਦੇ ਉਲਟ ਡਾਇਰੈਕਟਰੀਆਂ ਦੀ ਸਿਰਜਣਾ ਕਰਨ ਲਈ ਮਜਬੂਰ ਕਰਨਾ ਹੈ ਜਿਹੜੇ ਹੇਠ ਦਿੱਤੇ ਹੁਕਮ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਪ੍ਰਾਪਤ ਕੀਤੇ ਜਾ ਸਕਦੇ ਹਨ:
wget -x -r
ਕੁਝ ਫਾਇਲ ਕਿਸਮਾਂ ਨੂੰ ਕਿਵੇਂ ਡਾਊਨਲੋਡ ਕਰਨਾ ਹੈ
ਜੇ ਤੁਸੀਂ ਇੱਕ ਸਾਈਟ ਤੋਂ ਲਗਾਤਾਰ ਡਾਊਨਲੋਡ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ ਪਰ ਤੁਸੀਂ ਸਿਰਫ ਇੱਕ ਖਾਸ ਫਾਇਲ ਕਿਸਮ ਜਿਵੇਂ ਕਿ MP3 ਜਾਂ ਇੱਕ ਚਿੱਤਰ ਡਾਊਨਲੋਡ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ ਜਿਵੇਂ ਕਿ png, ਤੁਸੀਂ ਹੇਠ ਲਿਖੀ ਸੀਟੈਕਸ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ:
wget -A "* .mp3" -r
ਇਸ ਦੇ ਉਲਟ ਕੁਝ ਫਾਈਲਾਂ ਨੂੰ ਅਣਡਿੱਠ ਕਰਨਾ ਹੈ ਸ਼ਾਇਦ ਤੁਸੀਂ ਐਗਜ਼ੀਕਿਊਟੇਬਲ ਡਾਊਨਲੋਡ ਨਹੀਂ ਕਰਨਾ ਚਾਹੁੰਦੇ. ਇਸ ਸਥਿਤੀ ਵਿੱਚ, ਤੁਸੀਂ ਹੇਠ ਦਿੱਤੀ ਸੰਟੈਕਸ ਵਰਤੋਗੇ:
wget -R "* .exe" -r
ਕਲਿਗੇਟ
ਇੱਕ ਫਾਇਰਫਾਕਸ ਐਡ-ਓਨ ਹੈ ਜਿਸਨੂੰ ਕਲਿਗਰ ਕਹਿੰਦੇ ਹਨ. ਤੁਸੀਂ ਇਸ ਨੂੰ ਫਾਇਰਫਾਕਸ ਵਿੱਚ ਹੇਠ ਲਿਖੇ ਤਰੀਕਿਆਂ ਨਾਲ ਜੋੜ ਸਕਦੇ ਹੋ
Https://addons.mozilla.org/en-US/firefox/addon/cliget/ ਤੇ ਜਾਓ ਅਤੇ "ਫਾਇਰਫਾਕਸ ਵਿੱਚ ਜੋੜੋ" ਬਟਨ ਤੇ ਕਲਿੱਕ ਕਰੋ.
ਜਦੋਂ ਇਹ ਦਿਸਦਾ ਹੈ ਤਾਂ ਇੰਸਟੌਲ ਬਟਨ ਤੇ ਕਲਿਕ ਕਰੋ ਤੁਹਾਨੂੰ ਫਾਇਰਫਾਕਸ ਨੂੰ ਰੀਸਟਾਰਟ ਕਰਨਾ ਪਵੇਗਾ.
ਕਲਿਗੇਟ ਦੀ ਵਰਤੋਂ ਕਰਨ ਲਈ ਕਿਸੇ ਪੰਨੇ ਜਾਂ ਫ਼ਾਈਲ ਤੇ ਜਾਓ ਜੋ ਤੁਸੀਂ ਡਾਊਨਲੋਡ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ ਅਤੇ ਸੱਜਾ ਕਲਿਕ ਕਰੋ. ਇਕ ਸੰਦਰਭ ਮੀਨੂ ਨੂੰ ਕਲਿਗਰ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਅਤੇ "wget ਨੂੰ ਕਾਪੀ" ਅਤੇ "ਕਵਰ ਕਰਨ ਲਈ ਕਾਪੀ" ਦੇ ਵਿਕਲਪ ਹੋਣਗੇ.
"Copy to wget" ਅੋਪਸ਼ਨ ਤੇ ਕਲਿਕ ਕਰੋ ਅਤੇ ਇੱਕ ਟਰਮੀਨਲ ਵਿੰਡੋ ਖੋਲ੍ਹੋ ਅਤੇ ਫਿਰ ਸੱਜਾ ਕਲਿਕ ਅਤੇ ਪੇਸਟ ਕਰੋ. ਉਚਿਤ wget ਕਮਾਂਡ ਨੂੰ ਵਿੰਡੋ ਵਿੱਚ ਪੇਸਟ ਕੀਤਾ ਜਾਵੇਗਾ.
ਅਸਲ ਵਿੱਚ, ਇਹ ਤੁਹਾਨੂੰ ਸੰਭਾਲਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਤੁਹਾਨੂੰ ਆਪਣੇ ਆਪ ਹੀ ਕਮਾਂਡ ਟਾਈਪ ਕਰਨੀ ਪੈਂਦੀ ਹੈ
ਸੰਖੇਪ
ਵੱਡੀ ਗਿਣਤੀ ਦੇ ਵਿਕਲਪ ਅਤੇ ਸਵਿੱਚਾਂ ਦੇ ਰੂਪ ਵਿੱਚ wget ਕਮਾਂਡ.
ਇਸ ਲਈ ਇਸ ਲਈ ਵਸਤੂ ਸਟਾਫ ਕਿਤਾਬ ਨੂੰ ਪੱਕੇ ਤੌਰ ਤੇ ਇੱਕ ਟਰਮੀਨਲ ਵਿੰਡੋ ਵਿੱਚ ਟਾਈਪ ਕਰਕੇ ਪੜਨਾ:
ਮੈਨ ਵੈਂਗ