Giriş dosyasının günlüğü ve anahtarları. Dosyayı farklı bir adla kaydedin

  • 11.04.2019

Hepimiz bazen internetten dosya indiririz. Bunun için grafik arayüzlü programlar kullanırsanız, her şey son derece basit hale gelir. Ancak, Linux komut satırında çalışırken işler biraz daha karmaşık hale geliyor. Özellikle doğru aletlere aşina olmayanlar için. Bu tür araçlardan biri, her türlü indirme için uygun olan son derece güçlü wget yardımcı programıdır. Dikkatinize, wget'in temel özelliklerine hakim olabileceğinizi analiz ederek on iki örnek sunuyoruz.

$ wget https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia
Bu komutu girdikten sonra Nagios Core'un indirilmesi başlayacaktır. Bu işlem sırasında, indirmeyle ilgili verileri, örneğin, ne kadar veri indirildiği, mevcut hız ve indirmenin sonuna kadar ne kadar süre kaldığı gibi bilgileri görebileceksiniz.

2. Dosyayı indirin ve yeni bir adla kaydedin

İndirilen dosyayı orijinal adından farklı bir adla kaydetmek istiyorsak, -O parametresiyle wget komutu kullanışlı olur:

$ wget -O nagios_latest https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia
Bu yaklaşımla, yüklenen dosya nagios_latest adı altında kaydedilecektir.

3. Dosya indirme hızını sınırlama

Gerekirse dosyaların indirme hızını wget kullanarak sınırlayabilirsiniz. Sonuç olarak, bu işlem mevcut tüm veri aktarım kanalını işgal etmeyecek ve ağ ile ilişkili diğer işlemleri etkilemeyecektir. Bu, --limit-rate parametresi kullanılarak ve bayt (normal sayı olarak), kilobayt (sayıdan sonra K ekleyerek) veya saniyede megabayt (M) cinsinden ifade edilen hız sınırını belirleyerek yapılabilir:

$ wget ––limit-rate \u003d 500K https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror \u003d excellmedia
İndirme hızı 500 Kb / s olarak ayarlanmıştır.

4. Kesilen bir indirme işlemini tamamlama

Dosyaları indirirken bu işlem kesintiye uğrarsa, wget komutunun -c parametresini kullanarak indirmeye devam edebilirsiniz:

$ wget –c https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia
Bu parametre kullanılmazsa, eksik dosyanın indirilmesi baştan başlayacaktır.

Çok büyük bir dosya yüklüyorsanız ve bu işlemi arka planda gerçekleştirmek istiyorsanız, bunu -b seçeneğini kullanarak yapabilirsiniz:

$ wget –b https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia

İndirilecek dosya URL'lerinin bir listeniz varsa, ancak bu dosyalar için indirmeleri manuel olarak tetiklemek istemiyorsanız -I parametresini kullanabilirsiniz. Ancak, indirmeye başlamadan önce, tüm adresleri içeren bir dosya oluşturmanız gerekir. Örneğin, bunu aşağıdaki komutla yapabilirsiniz:

$ vi url.txt
Bu dosyaya adres ekleyin - her satıra bir tane. Ayrıca, yeni oluşturulan dosyayı indirme listesiyle birlikte bu yardımcı programa aktararak yalnızca wget'i başlatmak kalır:

$ wget –I url.txt
Bu komutun yürütülmesi, listedeki tüm dosyaların sıralı olarak yüklenmesiyle sonuçlanacaktır.

7. Toplam dosya indirme girişimlerinin sayısında artış

Bir dosyayı indirmeye yönelik yeniden deneme sayısını yapılandırmak için --tries parametresini kullanabilirsiniz:

Wget ––tries \u003d 100 https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia

Wget kullanarak anonim bir FTP sunucusundan dosya indirme komutu şuna benzer:

$ wget FTP url'si
Dosyaya erişmek için bir kullanıcı adı ve parola gerekiyorsa, komut şöyle görünecektir:

$ wget –-ftp-user \u003d dan ––ftp-password \u003d ********* FTP URL'si

9. Web sitesinin yerel bir kopyasını oluşturun

Bir web sitesinin tamamının içeriğini indirmeniz gerekiyorsa, bunu --mirror parametresini kullanarak yapabilirsiniz:

$ wget --mirror -p --convert-links -P / home / dan xyz.com
Ek komut satırı parametrelerine dikkat edin:

  • -p: HTML sayfalarını doğru şekilde görüntülemek için gerekli tüm dosyaları indirir.
  • --convert-links: belgelerdeki bağlantılar yerel site görüntüleme amaçları için dönüştürülecektir.
  • -P / home / dan: İçerik / home / dan klasörüne kaydedilecektir.

10. Siteden yalnızca belirli türdeki dosyaları indirme

Siteden yalnızca belirli türdeki dosyaları indirmek için -r -A parametrelerini kullanabilirsiniz:

$ wget -r -A.txt Website_url

11. Belirli bir türdeki dosyaları atlama

Tüm bir web sitesini kopyalamak istiyorsanız, ancak belirli türdeki dosyalara ihtiyacınız yoksa, --reject parametresini kullanarak bunların yüklenmesini devre dışı bırakabilirsiniz:

$ wget --reject \u003d png Website_url

12. Kendi .log dosyanızı kullanarak indirin

Dosyayı indirmek ve kendi .log dosyanızı kullanmak için -o seçeneğini kullanın ve günlük dosyasının adını belirtin:

$ wget -o wgetfile.log https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia

Sonuç

Wget, kullanımı oldukça kolay ancak çok kullanışlı bir Linux yardımcı programıdır. Ve aslında, konuştuğumuz şey yapabileceklerinin sadece küçük bir kısmı. Umarım bu genel bakış, wget'e aşina olmayanların bu programı değerlendirmesine yardımcı olur ve muhtemelen onu günlük komut satırı araçları cephaneliğine dahil eder.

Sevgili okuyucular! Dosyaları indirmek için Linux komut satırı araçlarını kullanıyor musunuz? Eğer öyleyse, lütfen bize onlardan bahsedin.

Tarayıcınızda JavaScript engellendi. Lütfen sitenin çalışması için JavaScript'i etkinleştirin!

WGet, dosyaları indirmek için bir programdır ve
tüm siteyi indirin.

Linux dünyasından gelen ücretsiz yardımcı program Wget, web sayfalarındaki bağlantıları izleyerek hem internetten tek tek dosyaları hem de tüm siteleri indirmenize izin verir.

WGet seçenekleriyle ilgili yardım için Linux'ta man wget veya Windows'ta wget.exe --help yazın.

Diskimizde www.site.com sitesinin tam bir kopyasını oluşturmak istediğimizi varsayalım. Bunu yapmak için komut satırını açın (Wget bir konsol yardımcı programıdır) ve aşağıdaki komutu yazın:

Wget.exe -r -l10 -k -p -E -nc http://www.site.com WGET özyinelemeli (parametre -r), maksimum özyineleme derinliğiyle css-stilleri (-k) dahil olmak üzere uzak sunucudaki dizinleri ve alt dizinleri gezer on (-l) değerine eşittir ve indirilen sitenin daha sonra yerel olarak görüntülenmesi için indirilen HTML belgelerinde mutlak bağlantıları göreli (-k) ile ve uzantıları html (-E) ile değiştirin. Yeniden indirmenin yüzleri olmayacak ve tekrarların üzerine yazılmayacaktır (-nc). Ne yazık ki, stillerde belirtilen dahili stiller ve resimler indirilmiyor

Siteden tek bir dizin indirmeyi planlıyorsanız (tüm klasörlerin ekli olduğu), komut satırına -np parametresini dahil etmek daha mantıklı olacaktır. Yardımcı programın, dosyaları ararken dizin hiyerarşisini belirtilen dizinin üstüne tırmanmasına izin vermez:

Wget.exe -r -l10 -k http://www.site.com -np

Wget.exe -r -l10 -k http://www.site.com -c

Varsayılan olarak, indirilen her şey yardımcı programın çalışma dizinine kaydedilir. -P parametresi, kopyalanan dosyalar için farklı bir konum belirlemenize yardımcı olur:

Wget.exe -r -l10 -k http://www.site.com -P c: \\ internet \\ dosyalar

Son olarak, ağınızın ağ ayarları bir proxy sunucusu kullanıldığını varsayıyorsa, ayarları programa bildirilmelidir. Santimetre.

Wget -m -k -nv -np -p --user-agent \u003d "Mozilla / 5.0 (uyumlu; Konqueror / 3.0.0 / 10; Linux)" SITE_ADDRESS

Wget -i DOSYA

Bir dosyayı belirtilen dizine indirme (-P):

Wget -P / yol / for / save ftp://ftp.example.org/some_file.iso

FTP / HTTP kullanıcı adı ve şifresini kullanma (seçenek 1):

Wget ftp: // giriş: [email protected]/some_file.iso

FTP / HTTP kullanıcı adı ve şifresini kullanma (seçenek 2):

Wget --user \u003d login --password \u003d password ftp://ftp.example.org/some_file.iso

Arka planda indirme (-b):

Wget -b ftp://ftp.example.org/some_file.iso

Daha önce eksik indirilmiş bir dosyayı indirmeye devam edin (-c devam edin):

Wget -c http://example.org/file.iso

Takip derinliği 10 olan bir sayfa indirin, protokolü günlük dosyasına yazın:

Wget -r -l 10 http://example.org/ -o log

Yukarıdaki dizin hiyerarşisine girmeden http://example.org/~luzer/my-archive/ dizininin ve tüm alt dizinlerinin içeriğini indirin:

Wget -r --no-parent http://example.org/~luzer/my-archive/

İndirilen tüm sayfalardaki bağlantıların yerel görüntüleme için göreli olanlara dönüştürülmesi için -k anahtarını kullanmalısınız:

Wget -r -l 10 -k http://example.org/

Sunucudaki kimlik doğrulama da desteklenmektedir:

Wget --save-cookies cookies.txt --post-data "user \u003d foo & password \u003d bar" http://example.org/auth.php

Sitenin tamamını kopyalayın:

Wget -r -l0 -k http://example.org/

Örneğin, zip arşivlerini indirmeyin:

Wget -r -R "* .zip" http://freeware.ru

Giriş yapın ve anahtar dosyasını indirin

@echo off wget --save-cookies cookies.txt --post-data "login \u003d YOURLOGIN & password \u003d PAROLANIZ" http://beta.drweb.com/files/ -O- wget --load-cookies.txt "http : //beta.drweb.com/files/? p \u003d win %% 2Fdrweb32-betatesting.key & t \u003d f "-O drweb32-betatesting.key

Dikkat! WGet parametre kaydı farklı!

Temel başlangıç \u200b\u200btuşları

-V
--version
Wget sürümünü görüntüler.

-h
--Yardım
Tüm Wget komut satırı anahtarlarını açıklayan yardımı görüntüler.

-b
--arka fon
Başlattıktan hemen sonra arka plana gidin. Hiçbir çıktı dosyası belirtilmezse -o, çıktı wget-log'a yönlendirilir.

-e komutu
--Komutu çalıştır
Komutu bir dosyanın parçasıymış gibi çalıştırın. Bu şekilde çalıştırılan bir komut .wgetrc'deki komutlardan sonra çalıştırılır ve bunlara göre önceliklidir. Birden fazla wgetrc komutu belirtmek için birden çok -e anahtarını kullanın.

Günlük kaydı ve giriş dosyası tuşları

-o günlük dosyası
--output-file \u003d günlük dosyası
Tüm iletileri günlük dosyasına kaydedin. Genellikle mesajlar standart hata olarak görüntülenir.

-bir günlük dosyası
--append-output \u003d günlük dosyası
Günlük dosyasına ekleyin. -O ile aynı, yalnızca günlük dosyasının üzerine yazılmaz, ancak eklenir. Günlük dosyası yoksa, yeni bir dosya oluşturulur.

-d
- hata ayıklama
Hata ayıklama bilgilerinin çıktısını etkinleştirir, örn. doğru çalışmazlarsa Wget geliştiricileri için yararlı olan çeşitli bilgiler. Sistem yöneticisi, hata ayıklama desteği olmadan Wget'i oluşturmayı seçmiş olabilir, bu durumda -d çalışmayacaktır. Hata ayıklama etkinleştirilmiş bir yapının her zaman güvenli olduğunu unutmayın - Wget, -d ile açıkça istenmedikçe hata ayıklama bilgilerini vermez.

-q
--sessiz
Wget çıktısını kapatır.

-v
--verbose
Olası tüm bilgilerle ayrıntılı çıktı içerir. Varsayılan olarak ayarlayın.

-nv
- ayrıntılı olmayan
Ayrıntılı olmayan çıktı - ayrıntılı kapatır, ancak hiç susturmaz (bunun için -q kullanın), hata mesajları ve temel bilgiler görüntülenir.

-i dosyası
--input-file \u003d dosya
URL'yi giriş dosyasından okuyun, bu durumda URL'nin komut satırında belirtilmesi gerekmez. URL'ler komut satırında ve giriş dosyasında belirtilmişse, önce komut satırındaki URL'ler istenir. Dosyanın bir HTML belgesi olması gerekmez (ancak olabilir) - sıralı bir URL listesi yeterlidir. Bununla birlikte, --force-html belirtilirse, girdi dosyası html olarak kabul edilir. Bu durumda, göreli bağlantılarla ilgili sorunlar belirterek çözülebilir. girdi dosyasının içinde veya komut satırında --base \u003d url.

-F
--force-html
Bir dosyadan bir adres listesi okurken, dosya formatını HTML olarak ayarlar. Bu, indirmeyi yerel HTML dosyasındaki göreceli bağlantılara göre düzenlemenizi sağlar. girdi dosyasının içinde veya komut satırında --base \u003d url.

-B URL
--base \u003d URL
-İ ile belirtilen bir girdi dosyasında URL'leri göreli bağlantıların başına eklemek için -F ile birlikte kullanılır.

Anahtarları indir

--bind-address \u003d ADDRESS
İstemci TCP / IP bağlantılarını açarken yerel makinenin ADDRESS'ine () bağlayın. ADDRESS, bir ana bilgisayar adı veya IP adresi olarak belirtilebilir. Makineye birden çok IP adresi atanmışsa bu anahtar yararlı olabilir.

-t sayısı
--tries \u003d sayı
Numaralandırma girişimlerinin sayısını ayarlar. 0 veya inf belirtilmesi, sonsuz sayıda denemeye karşılık gelir. "Bağlantı reddedildi" veya "dosya bulunamadı" (404) gibi yeniden denenmeyen kritik hatalar dışında, varsayılan 20'dir.

-O dosyası
--output-document \u003d dosya
Belgeler ilgili dosyalara kaydedilmez, ancak dosya adlı bir dosyaya birleştirilir. Dosya zaten varsa, üzerine yazılacaktır. Dosya - olarak ayarlanmışsa, belgeler standart çıktıya yazdırılacaktır (-k geçersiz kılınarak). -K kombinasyonunun normalde yalnızca bir belgeyi indirmek için tanımlandığını unutmayın.

-nc
- yonca yok
Bir dosya aynı dizine birden fazla indirilirse, Wget'in davranışı -nc dahil olmak üzere birkaç anahtarla belirlenir. Bazı durumlarda, yerel dosyanın üzerine yazılır veya yeniden indirildiğinde üzerine yazılır, diğerlerinde ise kaydedilir.
Wget'i -N, -nc veya -r olmadan çalıştırırsanız, aynı dosyayı aynı dizine indirmek dosyanın orijinal kopyasının kaydedilmesine ve yeni bir kopyanın dosya olarak yazılmasına neden olur. Dosya tekrar indirilirse, üçüncü kopya file.2, vb. Olarak adlandırılır. -Nc belirtilirse, bu davranış bastırılır ve Wget dosyanın yeni kopyalarını indirmeyi reddeder. Bu nedenle, "bozucu yok" terimin bu modda yanlış kullanımıdır - önlenen dosyaların üzerine yazılması değil (sayısal son ekler halihazırda üzerine yazmayı engellemiştir), ancak birden çok kopya oluşturulmasıdır.
Wget'i -r anahtarıyla, ancak -N veya -nc olmadan başlatırken, dosyanın yeniden indirilmesi eskisinin üzerine yazılır. -Nc eklemek, dosyaların orijinal sürümlerini koruyarak ve sunucudaki yeni sürümleri yok sayarak bu davranışı engeller.
-R ile veya -r olmadan Wget'i -N anahtarıyla çalıştırırken, dosyanın yeni sürümünü indirme kararı yerel ve uzak zaman damgalarına ve dosya boyutuna bağlıdır. -nc, -N ile belirtilemez.
-Nc belirttiğinizde, .html ve .htm uzantılı dosyalar yerel diskten yüklenecek ve ağdan indirilmiş gibi işlenecektir.

-c
--devam et
Kısmen indirilen dosyayı indirmeye devam edin. Bu, başka bir Wget işlemi veya başka bir program tarafından başlatılan bir indirmeyi sonlandırmanız gerektiğinde kullanışlıdır. Örneğin:

Wget -c ftp: //site/ls-lR.Z

Geçerli dizinde bir ls-lR.Z dosyası varsa, Wget onu uzak dosyanın ilk parçası olarak ele alacak ve sunucudan, başlangıçtan itibaren yerel dosyanın uzunluğuna eşit bir farkla indirmeye devam etmesini isteyecektir.

Bağlantı yarıda kesilirse, mevcut Wget işleminin indirilmesini önlemek için bu seçeneği belirtmenize gerek yoktur. Bu, orijinal davranıştır. -c yalnızca yerel dosyalar zaten mevcutsa geçerli Wget işleminden önce başlatılan indirmeleri etkiler.

-C olmadan, önceki örnek uzak dosyayı ls-lR.Z.1'e kaydedecek ve ls-lR.Z'yi değiştirmeden bırakacaktır.

Wget 1.7'den bu yana, boş olmayan bir dosyayla -c kullanıldığında, sunucu indirmeyi desteklemiyorsa, Wget indirmeyi baştan başlatmayı reddedecektir. bu, indirilen verilerin kaybına neden olur. İndirmeyi yeniden başlatmak isterseniz dosyayı silin.

Ayrıca, Wget 1.7 ile başlayarak, sunucudaki dosyaya eşit uzunlukta bir dosya için -c kullanıldığında, Wget indirmeyi ve açıklayıcı bir mesaj görüntülemeyi reddedecektir. Uzak dosya yerel dosyadan daha küçükse de aynı şey olur (önceki denemeden bu yana sunucuda değiştirilmiş olabilir). Bu durumda "devam" anlamsızdır, indirme yapılmaz.

Öte yandan, -c kullanılırken, uzak dosyanın uzunluğu yerel dosyanın uzunluğundan daha büyükse, yerel bir dosyanın eksik indirildiği kabul edilecektir. Bu durumda (uzunluk (uzak) - uzunluk (yerel)) baytlar indirilecek ve yerel dosyanın sonuna yapıştırılacaktır. Bu, bazı durumlarda beklenen bir davranıştır: örneğin, toplanan yeni bir veri yığınını veya bir günlük dosyasını indirmek için -c'yi kullanabilirsiniz.

Ancak, sunucudaki dosya değiştirildiyse ve sadece eklenmediyse, bozuk bir dosya alırsınız. Wget, yerel bir dosyanın uzak bir dosyanın ilk parçası olup olmadığını kontrol edecek bir mekanizmaya sahip değildir. -R ile birlikte -c kullanırken özellikle dikkatli olun, çünkü her dosya eksik indirilmiş olarak kabul edilecektir.

Bozuk bir dosya, "indirme iptal edildi" zaman satırı ekleyen çarpık bir HTTP proxy'si ile -c kullanılarak da elde edilebilir. Gelecek sürümlerde, bu tür durumları düzeltmek için bir "geri alma" anahtarı eklemek mümkündür.

-C anahtarı yalnızca Aralık başlığını destekleyen FTP ve HTTP sunucularında kullanılabilir.

--progress \u003d tür
Pompa ilerleme göstergesi tipinin seçilmesi. Olası değerler "nokta" ve "çubuk" dur.
Varsayılan olarak "çubuk" tipi göstergesi kullanılır. Bir ASCII yükleme ilerleme çubuğu ("termometre" olarak adlandırılır) görüntüler. Çıktı TTY değilse, varsayılan "nokta" göstergesidir.
Nokta moduna geçmek için --progress \u003d dot belirtin. İndirme ilerlemesi izlenir ve her nokta indirilen verilerin sabit bir boyutunu temsil ettiği noktalar halinde görüntülenir.
Nokta yükleme için nokta: stil belirterek çıktı stilini değiştirebilirsiniz. Farklı stiller, bir nokta için farklı bir değer tanımlar. Varsayılan olarak, bir nokta 1K'yı temsil eder, 10 nokta bir küme oluşturur, çizgi başına 50 nokta. İkili stil daha bilgisayar odaklıdır - nokta başına 8K, küme başına 16 nokta ve satır başına 48 nokta (satır başına 384K). Mega stil, çok büyük dosyaları indirmek için en uygun olanıdır - her nokta 64K'ya karşılık gelir, küme başına 8 nokta ve satır başına 48 nokta (satır 3M'ye karşılık gelir).
Varsayılan stil .wgetrc aracılığıyla ayarlanabilir. Bu ayar, komut satırında geçersiz kılınabilir. Çıktı TTY değilse "nokta" nın "çubuk" a göre önceliği bir istisnadır. Her zaman bar kullanmak için --progress \u003d bar: force belirtin.

-N
--zaman damgası
Zaman damgalarının kullanımını içerir.

-S
--Sunucu cevabı
HTTP sunucusu başlıklarını ve FTP sunucusu yanıtlarını görüntüleme.

--örümcek
Bu anahtarla başlatıldığında, Wget bir web örümceği gibi davranır; sayfaları indirmez, yalnızca onları denetler. Örneğin, yer işaretlerinizi Wget kullanarak kontrol edebilirsiniz:

Wget --spider --force-html -i bookmarks.html

Bu özellik, Wget'in gerçek ağ örümceklerinin işlevselliğini elde etmesi için çok çalışma gerektirir.

-T saniye
--timeout \u003d saniye
Ağ zaman aşımını saniye olarak ayarlar. Aynı anda --dns-timeout, --connect-timeout ve --read-timeout belirtmeye eşdeğerdir.
Wget uzak bir ana bilgisayara bağlandığında veya okurken, zaman aşımını kontrol eder ve zaman aşımına uğrarsa iptal eder. Bu, takılı okumalar veya sonsuz bağlantı girişimleri gibi anormalliklerin oluşmasını önler. Tek varsayılan zaman aşımı, 900 saniyelik okuma zaman aşımıdır. Zaman aşımını 0 olarak ayarlamak, kontrolleri iptal eder.
Ne yaptığınızı tam olarak bilmiyorsanız, zaman aşımı anahtarları için herhangi bir değer belirlememek en iyisidir.

--dns-timeout \u003d saniye
DNS sorguları için zaman aşımını saniye olarak ayarlar. Belirtilen süre içinde tamamlanmayan DNS sorguları başarısız olur. Varsayılan olarak, sistem kitaplıkları tarafından tanımlanan değerler dışında DNS sorguları için zaman aşımı ayarlanmamıştır.

--connect-timeout \u003d saniye
Bağlantı zaman aşımını saniye olarak ayarlar. Kurulumu daha uzun süren TCP bağlantıları iptal edilecektir. Varsayılan olarak, sistem kitaplıkları tarafından tanımlanan değerler dışında bağlantı zaman aşımı ayarlanmamıştır.

--read-timeout \u003d saniye
Okuma (ve yazma) zaman aşımını saniye olarak ayarlar. Daha uzun süren okuma başarısız olacaktır. Varsayılan 900 saniyedir.

--limit-rate \u003d miktar
İndirme hızı sınırını saniyedeki bayt miktarı olarak ayarlar. Değer bayt, kilobayt ve k sonekiyle veya megabayt olarak m sonekiyle ifade edilebilir. Örneğin --limit-rate \u003d 20k, indirme hızı sınırını 20KB / s olarak ayarlayacaktır. Bu sınırlama, herhangi bir nedenle Wget'in mevcut tüm bant genişliğini tüketmesini istemiyorsanız kullanışlıdır. Wget, bir ağ okumasından sonra gereken süre için, belirtilen sınırdan daha kısa süren bir uyku sınırı uygular. Sonuçta, bu strateji TCP aktarım hızını yaklaşık olarak belirtilen sınıra yavaşlatacaktır. Ancak, dengelenmesi biraz zaman alır, bu nedenle kısıtlama küçük dosyalar için iyi çalışmazsa şaşırmayın.

-w saniye
--wait \u003d saniye
İndirmeler arasında belirtilen sayıda saniye bekleyin. İstek oranını düşürerek sunucu üzerindeki yükü azaltmak için bu özelliğin kullanılması önerilir. Saniye yerine, m son ekiyle dakika cinsinden, h son eki ile saat cinsinden veya d son eki ile gün cinsinden belirtilebilir.
Hedef ağ veya ana bilgisayar kullanılamıyorsa, Wget'in yeniden denemeden önce ağ sorunlarını çözmek için yeterince beklemesi için büyük bir değer belirtilmesi yararlıdır.

--waitretry \u003d saniye
Wget'in farklı indirmeler arasında beklemesini istemiyorsanız, ancak yalnızca başarısız indirme denemeleri arasında bu anahtarı kullanabilirsiniz. Wget doğrusal olarak duraklayacak, verilen dosya için ilk hatadan 1 saniye sonra, ikinci hatadan 2 saniye sonra ve maksimum saniyeye kadar devam edecektir. Yani 10 değeri, Wget'in dosya başına (1 + 2 + ... + 10) \u003d 55 saniyeye kadar beklemesini sağlayacaktır. Bu anahtar, varsayılan olarak genel wgetrc dosyasına dahil edilmiştir.

--random-bekle
Bazı web siteleri, istekler arasındaki duraklamalardaki istatistiksel benzerlikleri inceleyerek Wget gibi sallanan istasyonları belirlemek için günlükleri analiz edebilir. Bu anahtar, bekleme değerinin --wait anahtarıyla gösterildiği, 0 ila 2 * bekleme saniye aralığında rastgele duraklamalar ayarlar. Bu, Wget'in bu analizin dışında tutulmasına izin verir. Popüler özel platformların geliştirilmesiyle ilgili yeni bir makalede, bu analizi anında yapabilmek için kod sunuldu. Yazar, DHCP tarafından atanan adresin olası değişikliğine rağmen otomatik indirme programlarını engellemek için C sınıfı alt ağların engellenmesini önerdi. --Random-wait anahtarının yaratılması, bu hastalıklı öneri ile birçok masum kullanıcıyı birinin hatasıyla engellemek için harekete geçirdi.

-Y açık / kapalı
--proxy \u003d açık / kapalı
Proxy desteğini etkinleştirir veya devre dışı bırakır. Karşılık gelen ortam değişkeni ayarlanmışsa, proxy desteği varsayılan olarak etkinleştirilir.

-Kota
--quota \u003d kota
Otomatik indirmeler için kotayı ayarlar. Değer bayt (varsayılan), kilobayt (k sonekiyle) veya megabayt (m sonekiyle) olarak belirtilir. Kota bir dosyanın indirilmesini etkilemez..gz, ls-lR.gz dosyası tamamen indirilecektir. Aynı durum, komut satırında birden çok URL belirlenirken de olur. Kota, yinelemeli olarak indirirken veya giriş dosyasında adresleri belirtirken önemlidir. Yani wget -Q2m -i sitelerini güvenle belirleyebilirsiniz - kotaya ulaşıldığında indirme işlemi kesilecektir. Değerlerin 0 veya inf olarak ayarlanması, kısıtlamaları iptal eder.

Dns-önbellek \u003d kapalı
DNS sorgularının önbelleğe alınmasını devre dışı bırakır. Genellikle, Wget DNS'de istenen adresleri hatırlar, böylece aynı (genellikle küçük) adres kümesi için sürekli olarak DNS sunucusunu sorgulamanıza gerek kalmaz. Bu önbellek yalnızca bellekte var. Yeni Wget işlemi DNS'yi yeniden sorgulayacaktır. Bununla birlikte, bazı durumlarda, Wget gibi bir uygulama için kısa bir çalışma süresi için bile adres önbelleğe alma arzu edilmez. Örneğin, bazı HTTP sunucuları, zaman zaman değişen dinamik olarak ayrılmış IP adreslerine sahiptir. DNS kayıtları her değişiklikle güncellenir. Böyle bir ana bilgisayardan bir Wget indirmesi IP adresindeki bir değişiklik nedeniyle kesilirse, Wget indirmeyi yeniden dener, ancak (DNS önbelleğe alma nedeniyle) eski adrese bağlanmaya çalışır. DNS önbelleği devre dışı bırakıldığında, Wget her bağlantıda DNS aramaları yapacak ve böylece her seferinde doğru dinamik adresi alacaktır. Yukarıdaki açıklamayı anlamadıysanız, büyük olasılıkla bu anahtara ihtiyacınız olmayacaktır.

--restrict-file-names \u003d mode
Uzak bir URL'den yerel dosya adı oluşturulurken hangi karakter kümelerinin kullanılabileceğini belirler. Bu anahtarla yasaklanan karakterlerden kaçılır, örn. % HH ile değiştirilir; burada HH, karşılık gelen karakterin onaltılık kodudur. Varsayılan olarak, Wget işletim sisteminizde bir dosya adının parçası olmayan karakterlerin ve genellikle yazdırılamayan kontrol karakterlerinin çıkışını yapar. Bu anahtar, bir dosyayı yerel olmayan bir bölüme kaydediyorsanız veya kontrol karakteri kaçışını kaldırmak istiyorsanız varsayılanı değiştirmek için kullanışlıdır. Mod "unix" olduğunda, Wget 0-31 ve 128-159 aralığındaki / karakterinden ve kontrol karakterlerinden kaçar. Bu, Unix tipi Os için varsayılandır. Mod "windows" olduğunda, Wget \\, |, /,:,?, ", * Ve 0-31 ve 128-159 aralığındaki kontrol karakterlerinden kaçar. Ayrıca Windows modunda Wget, ana bilgisayarı ayırmak için: yerine + kullanır. ve dosya adının istenen kısmını diğerlerinden ayırmak için? yerine yerel dosya adlarında ve @ yerine bağlantı noktası, böylece Unix modunda www..pl? input \u003d blah olarak Windows modunda saklanan bir URL www..pl @ olarak kaydedilecektir. input \u003d blah Bu, Windows'taki varsayılan moddur. Eğer kipe hiçbir kontrol eklerseniz, örneğin unix, nocontrol, kaçış kaçış devre dışı bırakılır. Seçimi etkilemeden kontrol karakterlerinin kaçışını devre dışı bırakmak için --restrict-file-names \u003d nocontrol kullanabilirsiniz Servis karakterleri için işletim sistemine bağlı kaçış modu.

Dizin Anahtarları

-ve
--no-dizin
Özyinelemeli indirmelerde dizin yapısı oluşturmayın. Bu anahtarla, tüm dosyalar üzerine yazılmadan geçerli dizine kaydedilir (ad birden fazla geçerse, adlar .n sonekini alır).

-x
--force-dizinleri
Ters -nd - aksi takdirde yaratılmamış olsa bile dizin yapısını oluşturur .. txt, dosyayı site / robots.txt dosyasına kaydeder.

-nH
--no-host-dizinleri
Ana bilgisayar dizini oluşturulmasını devre dışı bırakır..ru /. Bu anahtar, bu davranışı geçersiz kılar.

--protocol-dizinleri
Yerel dosyalar için dizin bileşeni olarak protokol adını kullanın. Örneğin, bu anahtarla, wget -r http: // host, host / .... yerine http / host / ... konumuna kaydedecektir.

--cut-dirs \u003d sayı
Dizin iç içe yerleştirme düzeylerinin sayısını göz ardı edin. Bu, yinelemeli olarak indirilen içeriği depolamak için ayrıntılı dizin yönetimi için kullanışlı bir anahtardır .. -r ile indirirken, yerel kopya ftp'ye kaydedilir. -NH anahtarı ftp'yi kaldırabilirse .. Burası --cut-dirs kurtarmaya gelir; Wget'in uzaktaki alt dizinlerin sayısına göz yummasını sağlar. Aşağıda --cut-dirs için bazı çalışma örnekleri verilmiştir.

Seçenek yok -\u003e ftp. -nH -\u003e pub / xxx / -nH --cut-dirs \u003d 1 -\u003e xxx / -nH --cut-dirs \u003d 2 -\u003e. --cut-dirs \u003d 1 -\u003e ftp.site / xxx /

Sadece dizin yapısından kurtulmanız gerekiyorsa, bu anahtar -nd ve -P kombinasyonuyla değiştirilebilir. Bununla birlikte, -nd'den farklı olarak --cut-dirs alt dizinlerini kaybetmez - örneğin, -nH --cut-dirs \u003d 1 olduğunda, beta / alt dizini beklendiği gibi xxx / beta olarak kaydedilir.

-P öneki
--directory-prefix \u003d önek
Kök dizini önek olarak ayarlar. Kök dizin, tüm dosyaların ve alt dizinlerin kaydedileceği dizindir, örn. indirilen ağacın tepesi. Varsayılan. (mevcut dizin).

HTTP anahtarları

-E
--html-uzantısı
Bu anahtar, indirilen URL application / xhtml + xml veya text / html türüne sahipse ve sonu normal ifadeyle eşleşmiyorsa, yerel dosyanın adına .html uzantısını ekler \\.?. Bu, örneğin .asp sayfalarını kullanan siteleri yansıtırken, yansıtmanın normal bir Apache sunucusunda çalışmasını istediğinizde yararlıdır. Dinamik olarak oluşturulmuş içeriği indirirken de kullanışlıdır. Http://site.com/article.cgi?25 gibi bir URL, article.cgi? 25.html olarak kaydedilecektir. Bu şekilde kaydedilen sayfalar, sonraki her yansıtma ile indirilecek ve üzerine yazılacaktır. Wget, yerel bir X.html dosyasını uzaktaki bir X URL ile eşleştiremez (URL'nin text / html veya application / xhtml + xml türünde bir yanıt döndürdüğünü henüz bilmiyor). Yeniden indirmeleri önlemek için, orijinal sürümün X.orig olarak kaydedilmesi için -k ve -K anahtarlarını kullanın.

--http-user \u003d user
--http-passwd \u003d parola
HTTP sunucusuna erişim için kullanıcı adı kullanıcı ve şifre şifresini belirtir. İsteğin türüne bağlı olarak, Wget bunları normal (güvenli olmayan) veya özet yetkilendirme şemasını kullanarak kodlayacaktır. Kullanıcı adını ve şifreyi belirlemenin bir başka yolu da URL’nin kendisidir. Her iki yöntem de parolanızı ps çalıştıran herkese ifşa eder. Şifrelerin açığa çıkmasını önlemek için, bunları .wgetrc veya .netrc dosyalarında saklayın ve bu dosyaların chmod kullanan diğer kullanıcılar tarafından okunabilir olmadığından emin olun. Bu dosyalarda bile özellikle önemli şifrelerin saklanması önerilmez. Şifreleri dosyalara yazın ve Wget'i başlattıktan hemen sonra kaldırın.

- önbellek yok
Sunucu tarafında önbelleğe almayı devre dışı bırakır. Bu durumda, Wget dosyanın önbelleğe alınmış bir sürümünü değil, güncelleştirilmiş bir sürümünü almak için uygun yönergeyi (Pragma: önbellek yok) uzak sunucuya gönderir. Bu, özellikle proxy sunuculardaki güncel olmayan belgeleri silmek için kullanışlıdır. Önbelleğe alma varsayılan olarak etkindir.

--kurabiye yok
Çerez kullanımını devre dışı bırakır. Çerezler, bir sunucu durumu bakım mekanizmasıdır. Sunucu, Set-Cookie başlığını kullanarak istemciye bir çerez gönderir, istemci bu çerezi sonraki tüm isteklere dahil eder. Çünkü Çerezler, sunucu sahiplerinin ziyaretçileri izlemelerine ve bu bilgileri siteler arasında paylaşmalarına izin verir, bazıları bunları gizlilik ihlali olarak kabul eder. Varsayılan olarak çerezler kullanılır; ancak, çerezler varsayılan olarak kaydedilmez.

--load-cookies dosyası
İlk HTTP isteğinden önce dosyadan tanımlama bilgileri yükleniyor. dosyası, orijinal olarak Netscape'in cookies.txt dosyası için kullanılan formatta bir metin dosyasıdır. Genellikle bu seçenek, içeriğin bir kısmı veya tamamı için yetkilendirme gerektiren siteleri yansıtmak için gereklidir. Yetkilendirme genellikle kayıt bilgileri alınıp doğrulandıktan sonra sunucu tarafından verilen bir HTTP tanımlama bilgisi ile yapılır. Daha sonra, sitenin bu bölümünde gezinirken tarayıcı tarafından bir çerez gönderilir ve tanımlama sağlanır. Böyle bir sitenin yansıtılması, Wget'in tarayıcıyla aynı çerezleri sunmasını gerektirir. Bu, --load-cookies - sadece Wget'e cookies.txt'inizin konumunu söyleyin ve tarayıcı ile aynı çerezleri gönderecektir. Farklı tarayıcılar, tanımlama bilgilerini farklı konumlarda saklar: Netscape 4.x. ~ / .netscape / cookies.txt. Mozilla ve Netscape 6.x. Mozilla'nın çerezine cookies.txt de denir ve profil dizininizde ~ / .mozilla içinde bir yerde bulunur. Tam yol genellikle ~ / .mozilla / default / some-weird-string / cookies.txt gibi görünür. Internet Explorer. Wget çerezi Dosya, İçe ve Dışa Aktar, Çerezleri Dışa Aktar menüsünden edinilebilir. Internet Explorer 5'te test edilmiştir; önceki sürümlerle çalışmak garanti edilmez. Diğer tarayıcılar. Farklı bir tarayıcı kullanıyorsanız, --load-cookies yalnızca dosya formatı Netscape benzeri ise çalışır. Wget ne bekliyor. --Load-cookies'i kullanamıyorsanız, başka bir alternatif olabilir. Tarayıcının bir çerez yöneticisi varsa, yansıtma için gerekli olan çerezleri görüntüleyebilirsiniz. Çerez adını ve değerini not edin ve "resmi" desteği atlayarak bunları manuel olarak Wget'e belirtin:

Wget --cookies \u003d off --header "Çerez: ad \u003d değer"

--save-cookies dosyası
Çerezleri çıkmadan önce dosyaya kaydetme. Bu seçenek, süresi dolan çerezleri ve belirli bir sona erme süresi olmadan çerezleri ("oturum çerezleri" olarak adlandırılır) saklamaz. Ayrıca --keep-session-cookies'e bakın.

--keep-session-cookies
--Save-cookies belirtilirse, oturum çerezlerini kaydeder. Oturum çerezleri, tarayıcınızı kapattıktan sonra unutulmaları gerektiği için genellikle kaydedilmez. Bunları kaydetmek, sayfalara erişmek için yetkilendirme gerektiren siteler için yararlıdır. Bu seçenek ile site için farklı Wget işlemleri aynı tarayıcı olarak görünecektir. Çünkü genellikle tanımlama bilgisi biçimi oturum tanımlama bilgileri içermez, Wget bunları sona erme zaman damgası 0 ile işaretler. --load-tanımlama bilgileri bunları oturum tanımlama bilgileri olarak ele alır, ancak bu, diğer tarayıcılar için sorunlara neden olabilir Bu şekilde yüklenen tanımlama bilgileri, oturum tanımlama bilgileri olarak yorumlanır. --save-cookies ile kaydederken, --keep-session-cookies'i tekrar belirtmeniz gerekir.

--ignore-uzunluk
Ne yazık ki, bazı HTTP sunucuları (kesin olarak CGI programları) yanlış bir Content-Length üstbilgisi göndererek Wget'i çıldırtıyor. belgenin tamamen indirilmediğini düşünüyor. Bu sendrom, Wget aynı belgeyi defalarca indirmeye çalışırsa, her seferinde bağlantının aynı baytta kesildiğini gösterirse görülebilir. Bu anahtarla, Wget, Content-Length başlığını hiç yokmuş gibi yok sayar.

--header \u003d ek başlık
HTTP sunucusuna iletilecek ek başlık ek başlığı belirtin. Başlıklar, bir veya daha fazla boş olmayan karakterden sonra ":" içermeli ve satır beslemeleri içermemelidir. --Header anahtarını birden çok kez kullanarak birden çok ek başlık belirtebilirsiniz.

Wget --header \u003d "Accept-Charset: iso-8859-2" --header \u003d "Accept-Language: hr" http://aaa.hr/

Başlık olarak boş bir dizenin belirtilmesi, önceden belirtilen tüm özel başlıkları temizler.

--proxy-user \u003d user
--proxy-passwd \u003d parola
Proxy sunucusunda yetkilendirme için kullanıcı adı kullanıcı ve şifre şifresini belirtir. Wget bunları temel yetkilendirme şemasını kullanarak kodlar. Burada --http-passwd anahtarıyla aynı güvenlik hususları geçerlidir.

--referer \u003d url
İstekte bir "Referer: url" başlığı içerir. Sunucu, bir belgeyi sunarken etkileşimli bir tarayıcıyla iletişim kurduğunu düşünürse ve Referer alanının istenen belgeye işaret eden bir sayfa içerdiğini kontrol ederse kullanışlıdır.

--save-headers
HTTP yanıt üstbilgilerini, sınırlayıcı olarak boş bir dize kullanarak içeriğin hemen önündeki bir dosyaya kaydeder.

-U aracı dizesi
--user-agent \u003d aracı-dizesi
HTTP sunucusu için tarayıcı ajan dizesi olarak tanımlanır. HTTP protokolü, User-Agent başlık alanını kullanarak istemci kimlik doğrulamasına izin verir. Bu, genellikle istatistikler veya protokol ihlallerini izlemek için yazılımın farklılaştırılmasına olanak tanır. Wget genellikle Wget / version olarak tanımlanır; burada version, Wget'in mevcut sürümüdür. Bununla birlikte, bazı sitelerin Kullanıcı-Aracı alanına dayalı olarak ekranı tarayıcıya uyarlamak için politikaları vardır. Prensip olarak, bu kötü bir fikir değildir, ancak bazı sunucular Mozilla ve Microsoft Internet Explorer dışındaki istemcilere erişimi reddeder. Bu anahtar, Wget tarafından döndürülen Kullanıcı-Aracı değerini değiştirmenize olanak tanır. Ne yaptığınızdan emin değilseniz bu anahtarı kullanmanız önerilmez.

--post-data \u003d string
--post-file \u003d dosya
Tüm HTTP istekleri için POST yöntemini kullanır ve istekte belirtilen verileri gönderir. --post-data dizeyi veri olarak gönderir ve --post-file dosyanın içeriğini gönderir. Aksi takdirde aynı şekilde çalışırlar. Lütfen Wget'in başlangıçta POST isteğinin uzunluğunu bilmesi gerektiğini unutmayın. --Post-file anahtarının argümanı normal bir dosya olmalıdır; Bir FIFO'nun / dev / stdin olarak belirtilmesi işe yaramaz. HTTP / 1.0'da bu sınırlamayı nasıl aşabileceğiniz tam olarak belli değil. HTTP / 1.1, uzunluk hakkında ilk bilgi gerektirmeyen parçalı aktarım sunsa da, istemci bir HTTP / 1.1 sunucusu ile iletişim kurduğundan emin olmadıkça bunu kullanamaz. Ve bir cevap alana kadar bunu bilemez ve bu da tam bir ricada bulunur. Yumurta ve tavuk sorunu. Not: Wget, bir POST isteğine yanıt olarak bir yönlendirme alırsa, POST verilerini yeniden yönlendirme url'sine göndermez. Çoğu zaman, POST'u işleyen URL'ler, POST'u kabul etmek istemeyen normal bir sayfaya (teknik olarak yasaklanmış olsa da) yönlendirilir. Bu davranışın optimal olup olmadığı henüz net değil; işe yaramazsa değişecek. Aşağıdaki örnek, POST kullanarak sunucuda nasıl oturum açılacağını ve ardından yalnızca yetkili kullanıcılar tarafından kullanılabilen istenen sayfaların nasıl indirileceğini gösterir:

Wget --save-cookies cookies..php wget --load-cookies cookies.txt -p http://server.com/interesting/article.php

WGET'i Yapılandırma

Her seferinde yazılması gereken ana ayarlar, programın konfigürasyon dosyasında belirtilebilir. Bunu yapmak için, Wget çalışma dizinine gidin, oradaki sample.wgetrc dosyasını bulun, adını şu şekilde değiştirin: .wgetrc ve düzenleyicide gerekli yapılandırma parametrelerini yazın.

User-agent \u003d "Mozilla / 5.0" çalışır \u003d 5 indirme denemesi sayısı wait \u003d 0 duraklama devam et \u003d on indirmeniz gereken dir_prefix \u003d ~ / İndirmeler / indirilen use_proxy \u003d on - proxy http_proxy - proxy sunucunuzun özellikleri.

  • WGETRC ortam değişkenini dosyanın tam yolu ile ayarlayın.
  • Kullanıcının ana klasörüne giden yolu (c: \\ Documents and settings \\ jonh) belirleyeceğiniz HOME değişkenini ayarlayın. Daha sonra wget bu klasörde "wgetrc" dosyasını arayacaktır.
  • Alternatif olarak, wget.exe ile aynı klasörde bir wget.ini dosyası oluşturabilir ve orada ek wget komut satırı parametreleri ayarlayabilirsiniz.

WGET ile ilgili faydalı bilgiler burada bulunabilir:

  • PhantomJS - Verilerin bir kısmının JavaScript kullanılarak yüklendiği bir siteyi indirmeniz gerekiyorsa kullanın
.

Konsolda çalışırken, çoğu zaman ağ ile etkileşime girmemiz gerekir, örneğin, dosyaları veya tüm İnternet sayfalarını indiririz. Web sayfalarını nadiren indirsek de, dosyalarda durum oldukça farklıdır. Bunlar çeşitli komut dosyaları, kurulum paketleri, programlar, anahtarlar, paket listeleri ve çok daha fazlası olabilir. Dosyayı, wget yardımcı programını kullanarak Linux konsolunda indirebilirsiniz. Bunu bu yazıda ele alacağız.

HTTP, HTTPS ve FTP üzerinden çalışabilen çok güçlü bir yardımcı programdır. Ayrıca, proxy üzerinden çalışma desteklenmektedir. Wget linux komutu, çoğu web tarayıcısının aksine, kullanıcı müdahalesi olmadan dosyaları arka planda bile indirebilir.

Dosyaları indirmenin yanı sıra, sayfalardaki bağlantıları açma işlevi sayesinde web sayfalarını veya hatta tüm web sitelerini kaydetmek mümkündür. Bu özelliğe özyineli yükleme de denir. Bugünün makalesinde ele alacağımız tek şey bu, ancak her zaman olduğu gibi yardımcı programın sözdizimi ve ana seçenekleriyle başlayacağız.

Wget linux komutunun çok basit bir sözdizimi vardır:

$ wget link_address seçenekleri

Birden fazla indirme URL'si belirtebilirsiniz, ancak aynı anda birkaç tane. Seçenekler isteğe bağlıdır, ancak çoğu durumda önyükleme seçeneklerini yapılandırmak için kullanılırlar.

Seçenekler

Seçenekler sözdizimi çok gevşek. Her seçeneğin genellikle hem uzun hem de kısa adı vardır. URL'den önce ve sonra yazılabilirler. Seçenek ile değeri arasına boşluk koymanıza gerek yoktur, örneğin -o log veya -olog yazabilirsiniz. Bu değerler eşdeğerdir. Ayrıca, seçeneklerin parametresi yoksa, her birine bir tire ile başlamanız gerekmez, hepsini birlikte yazabilirsiniz: -drc ve -d -r -c. Bu wget seçenekleri de eşdeğerdir.

Şimdi seçenekler listesine geçelim. Wget'in çok fazla seçeneği var, sadece ana olanları ele alacağız.

  • -V (--version) - programın sürümünü görüntüleyin
  • -h (- yardım) - yardım göster
  • -b (--arka fon) - arka planda çalışmak
  • dosya (- dosya dışı) - günlük dosyasını belirtin
  • -d (- hata ayıklama) - hata ayıklama modunu etkinleştir
  • -v (--verbose) - yardımcı programın çalışması hakkında mümkün olduğunca fazla bilgi görüntüleyin
  • -q (--quiet) - işle ilgili asgari bilgileri görüntüleyin
  • -ben dosya (--input-file) - url'yi dosyadan oku
  • --force-html - önceki parametrede belirtilen dosyayı html olarak oku
  • -t (--tries) - sunucuya bağlanma girişimlerinin sayısı
  • -O dosyası (--output-document) - alınan verilerin kaydedileceği dosya
  • -c (- devam) - önceden kesilen indirmeye devam et
  • -S (--server-response) - ekran sunucusu yanıtı
  • --örümcek - URL'nin çalışıp çalışmadığını kontrol edin
  • -T zaman (- zaman aşımı) - sunucuya bağlanmak için zaman aşımı
  • --sınır oranı - indirme hızını sınırla
  • -w (--bekleme) - istekler arasındaki aralık
  • -Q (--kota) - maksimum yükleme boyutu
  • -4 (--inet4only) - ipv4 protokolünü kullanın
  • -6 (--inet6only) - ipv6 protokolünü kullanın
  • -U (--user-agent)- Sunucuya gönderilen KULLANICI ARACI dizesi
  • -r (- yinelemeli) - yardımcı programın yinelemeli çalışması
  • -l (--düzey) - yinelemeli tarama için derinlik
  • -k (--convert-linkler) - sayfa yüklemesinde bağlantıları yerel olarak dönüştürme
  • -P (--directory-prefix) - dosyaların yükleneceği dizin
  • -m (--ayna) - siteyi yerel makineye indirin
  • -p (--page-Requisites) - web sitesi yüklenirken gerekli tüm kaynakları indirin

Bunların hepsi wget anahtarları değil, ancak zaten çok fazla teori var, şimdi uygulamaya geçelim. Wget örnekleri çok daha ilginç.

Wget Linux'u kullanma

Wget linux komutu genellikle çoğu dağıtımda varsayılan olarak sağlanır, ancak değilse çok basit bir şekilde kurulabilir. Örneğin, bir yum kurulumu şöyle görünür:

yum -y wget yükle

Ve Debian'a dayalı dağıtımlarda:

sudo apt yükleme wget

Şimdi doğrudan örneklere gidelim:

Wget linux komutu bir dosya indirecek ve mevcut dizine kaydedecektir. İndirme sırasında ilerlemeyi, dosya boyutunu, en son değiştirildiği tarihi ve indirme hızını göreceğiz:

wget http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz

2. Dosyayı farklı bir adla kaydedin

-O seçeneği, kaydedilen dosya için bir ad belirlemenize olanak tanır, örneğin, wget.zip adlı bir wget dosyası indirir:

wget -O wget.zip http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz

3. Birden fazla dosya indirin

Farklı protokoller için bile tek komutla birkaç dosyayı, sadece URL'lerini belirterek indirebilirsiniz:

wget http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz ftp://ftp.gnu.org/gnu/wget/wget-1.10.1.tar.gz.sig

4. Dosyadan URL alın

wget -i /wget/tmp.txt

5. İndirmeye devam edin

Wget linux yardımcı programı yavaş ve kararsız ağlarda çalışmak üzere tasarlanmıştır. Bu nedenle, büyük bir dosya indirdiyseniz ve indirme sırasında bağlantı kesildiyse, wget dosyasını -c seçeneğini kullanarak indirebilirsiniz.

wget -c http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz

-B seçeneği, programı arka planda çalışmaya zorlar, tüm çıktı günlük dosyasına yazılır, günlük dosyasını yapılandırmak için özel wget anahtarları kullanılır:

wget -b -o ~ / wget.log http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz

7. İndirme hızını sınırlama

Wget linux komutu sadece dosya indirmeye devam etmekle kalmaz, aynı zamanda indirme hızını da sınırlar. Bunun için bir --limit-rate seçeneği var. Örneğin, hızı 100 kilobit ile sınırlayalım:

wget --limit-rate \u003d 100k ftp://ftp.iinet.net.au/debian/debian-cd/8.4.0/amd64/iso-dvd/debian-8.4.0-amd64-DVD-1.iso

Burada, diğer benzer komutlarda olduğu gibi, hızı gösteren endeksler mevcuttur - k - kilobit, m - megabit, g - gigabit vb.

8. Kullanıcı adı ve parola ile bağlantı

Bazı kaynaklar, dosyalarını yüklemek için kimlik doğrulaması gerektirir. --Http-user \u003d username, –http-password \u003d password ve --ftp-user \u003d username, --ftp-password \u003d password seçenekleriyle, HTTP veya FTP kaynakları için kullanıcı adı ve şifre belirleyebilirsiniz.

wget --http-user \u003d narad --http-password \u003d password http://mirrors.hns.net.in/centos/6.3/isos/x86_64/CentOS-6.3-x86_64-LiveDVD.iso

wget --ftp-user \u003d narad --ftp-password \u003d şifre ftp://ftp.iinet.net.au/debian/debian-cd/6.0.5/i386/iso-dvd/debian-6.0.5-i386 -DVD-1.iso

9. İndirin ve çalıştırın

Muhtemelen bunun gibi komutları daha önce görmüşsünüzdür. wget, indirilen komut dosyalarını hemen çalıştırmanıza izin verir:

wget -O - http: //site/script.sh | bash

-O seçenekleri herhangi bir argüman iletmezse, indirilen dosya standart çıktıya yazdırılır, ardından yukarıda gösterildiği gibi onu bash yorumlayıcısından yeniden yönlendirebiliriz.

10. Dosyayı bir klasöre kaydedin

Varsayılan olarak wget, dosyayı geçerli klasöre kaydeder, ancak bu davranışı -P seçeneğiyle değiştirmek çok kolaydır:

wget -P ~ / Downloads / http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz

11. Tarayıcı hakkındaki bilgileri aktarın

Bazı siteler botları filtreler, ancak tarayıcımız (kullanıcı aracısı) ve geldiğimiz sayfa (http-referer) hakkında sahte bilgiler iletebiliriz.

wget -‐refer \u003d http: //google.com -user-agent \u003d ”Mozilla / 5.0 Firefox / 4.0.1 ″ // site

12. İndirme denemelerinin sayısı

Varsayılan olarak wget, bir hatayla çıkmadan önce indirmeyi 20 kez yeniden denemeye çalışır. --Tries seçeneği kullanılarak sayısı değiştirilebilir: