Keresés

Részletes keresés

NevemTeve Creative Commons License 2013.11.09 0 0 56

Mert ha igen, akkor épp az aktuális mappában keletkezik az output-fájl. Azért is tesz a végére egy sorszámot, mert már ott van az előző.

Előzmény: NevemTeve (55)
NevemTeve Creative Commons License 2013.11.09 0 0 55

ugye ezt egy DOS-ablakban (CMD.EXE) próbálod?

Előzmény: Captain Kirk (53)
Captain Kirk Creative Commons License 2013.11.09 0 0 54

+ kiegészítés az előzőből; windows command line-bón futtatom.

Captain Kirk Creative Commons License 2013.11.09 0 0 53

Sziasztok, folytatnám a Wget-ezést :)

 

Le szeretném menteni egy page html/css kódját.

Futtatom a wget-et, és a végén ki is írja a file nevét, ahova betöltötta a megadott page-t,

meg hogy mentve, (jelen esetben az index.html.1), de egyszerűen nem találom a winchesteremen.

 

A dolog különlegessége, hogy tegnap ez még működött, létrejött a file, el is könyveltem a sikert, aztán egyik

pillanatról a másikra meggajdult. Próbáltam újrainstallálni, másik mappába installálni, ugyanoda, de semmi.

Reggel óta Google-zök a problémán, de mintha még a világon senki se találkozott volna ezzel.

 

Arra is gondoltam, hogy mi van ha kevés a hely a gépemen (jelenleg 2 giga), de erre vonatkozó korlátot se

találtam.

 

a következő szintaktikát használtam: wget http://www.example.com

 

Kipróbáltam azt is, hogy -o kapcsolóval én adom meg a file nevét, de akkor sem találom, pedig ugyanúgy pozitív visszajelzést

ad a wget.

 

Segítséget előre is (nagyon) köszönöm.

 

ui.: ha valami fontos adatot kihagytam, akkor utólag is bocs, szóljatok és leírom.

 

Haliberi Creative Commons License 2011.06.14 0 0 52

Sziasztok!

Van egy olyan weboldal, ahol egy könyvtárban sok alkönyvtár ill. sok fájl van (doksik leginkább), és szeretném ezeket leszedni, de nem egyesével, mert az iszonyatos meló. Leszedtem a wget-et, mert azt olvastam, hogy erre használható. Windows XP-m van ugyan, de találtam egy olyan wget-et, ami windows-os alapon is fut. Valamit viszont eltolok, mert amikor elindítom a letöltést, csak index fájlokat, meg mindenféle üres mappákat szed le, semmi fájlt. Mit rontok el? Nagyon örülnék, ha valaki tudna segíteni, fontosak lennének azok a fájlok.

NevemTeve Creative Commons License 2004.06.24 0 0 51
Miért nem működött a wget cron-ból indítva a cd-vel megadott alkönyvtárba?

Csak ugyanazt tudom ajánlani, amit a multkor: debuggolj

#!/bin/sh
pwd >/tmp/$$.debug
cd ide/oda/amoda
pwd >>/tmp/$$.debug

Előzmény: Axon (50)
Axon Creative Commons License 2004.06.24 0 0 50
Ha simán lefutattam a script-et, akkor működött és tényleg abba az alkönyvtárba töltött ahova a cd -vel lépkedtem, de ha ugyanezt a scriptet cron -ból indítottam, akkor mindig az aktuális felhasználó home könyvtárába töltött.
Én sem tudom miért csinálta ezt, de színültig káromkodtam az irodát közben :-)

Viszont a wget ezzel a -P kapcsolóval mostmár tökéletesen működik és mindenképpen elegánsabb is direkt megadni egy helyet a letöltésnek, mivel én több helyről is töltögetek állományokat és szinte mindegyiket máshova kell raknom így egyszerűbb a wget sorában megadnom a helyet, mint minden wget parancs előtt cd -vel odalépegetnem.

Igazából két részre bonthatjuk a problémát.
1. Miért nem működött a wget cron-ból indítva a cd-vel megadott alkönyvtárba?
2. Nekem amúgy is nehézkes lett volna a cd-s megoldás és mindenképpen a -P kapcsoló volt a joker.

Előzmény: NevemTeve (49)
NevemTeve Creative Commons License 2004.06.22 0 0 49
cd /alkonyvt/alkonyvt
wget .....

Szerintem az az cd nem ment le... (ellenorzes: pwd >/tmp/$$.pwd)

Inkább

cd /home/user/alkonyvt/alkonyvt
wget ....

kellene

Előzmény: Axon (48)
Axon Creative Commons License 2004.06.22 0 0 48
Akár hiszed- akár nem, tényleg nem megy. Legalább is a wget-et nemérdekli.
Elvileg a wget abba az alkönyvtárba tölti ahol kiadtad a parancsot.
Tehát
cd /alkonyvt/alkonyvt
wget .....

azt hinnéd így az /alkonyvt/alkonyvt -ba tölti, de nem. Ha cronból futtatod a fent scriptecskét akkor a felhasználó home könyvtárába töltöget.

Előzmény: NevemTeve (45)
Axon Creative Commons License 2004.06.22 0 0 47
Nekem főleg http:// protokolról kell fileokat letöltenem, erre viszont a wget tökéletes.
Előzmény: TeWe (43)
Axon Creative Commons License 2004.06.22 0 0 46
Köszi!

Kipróbáltam és remekül működik.

Előzmény: SID 6.7 (42)
NevemTeve Creative Commons License 2004.06.21 0 0 45
Nem is tudtam, hogy cron-ból nem megy a "cd"...
Előzmény: Axon (41)
TeWe Creative Commons License 2004.06.21 0 0 44
jah, és innen leszedheted: http://lftp.yar.ru/
TeWe Creative Commons License 2004.06.21 0 0 43
parancssoros ftpnek ottvan pl az "lftp". Elég korrekt, tud háttérben is...
SID 6.7 Creative Commons License 2004.06.21 0 0 42
Hogyan lehet megadni, hogy hova töltsön le fileokat a wget?

Normál esetben:
wget -P$HOME/.. (-P opció után megadod az elérési utat)

Előzmény: Axon (41)
Axon Creative Commons License 2004.06.21 0 0 41
Az első kérdésben elhangzott az, hogy hogyan lehet beállítani azt a helyet ahová letöltse a fileokat. Nekem nem működik az, hogy abban az alkönyvtárban adom ki a parancsot ahová le kell töltenie, a következők miatt:

Én a cron -al időzítek egy letöltést. Na most ekkor annak a felhasználónak a home könyvtárába tölti le a fileokat, akinek a nevében elindítottam a cron időzítőben a wget parancsot.
Hogyan lehet megadni, hogy hova töltsön le fileokat a wget?
A man wget-et már átböngész(get)tem, de elég hiányos angol tudásommal, nem igazán boldogultam. Kipróbáltam néhány kapcsolót, de nem igazán működött a dolog.

SID 6.7 Creative Commons License 2004.02.06 0 0 40
Tipp:
Elofordult mar hasonlo. Velhetoen a wget forditasa kozben nem lett alkalmazva a longfile-opcio(?). Vagy egyszeruen nem birkozik meg a 2GB< fajlok letoltesevel(ebben az esetben gondolom a libc nem lehet bunoskent titulalni), de ez a valoszinutlenebb.
ncftp, vagy valami olyan client alkalmazast hasznalj, ami 64 bites fajlkezeloket hasznal.
Előzmény: neszt76 (35)
Solt Creative Commons License 2004.02.06 0 0 39
Mással (pl. nt) le tudod szedni?
Előzmény: neszt76 (38)
neszt76 Creative Commons License 2004.02.06 0 0 38
Nah. Kipróbáltam. Ugyanaz a helyzet.
Van hibaüzi is. "File size limit exceeded"

(Az ext3-mas partíción csináltam 3 gigás file-t, tehát ezzel gond nem lehet)

Mondjuk már eleve ott gáz van, amikor megállapítja, hogy mekkora a host-on a file, mert ezt mondja:
Length: 274,337,792 [-1,873,144,912 to go](unauthoritative)

Dehát ez csak egy adat, hiszen attól még 2 gigát letöltött..

Előzmény: NevemTeve (36)
neszt76 Creative Commons License 2004.02.06 0 0 37
1.8.1-es volt fent, a gnu.org-on most látok 1.9.1-es kipróbálom, köszi.
Előzmény: NevemTeve (36)
NevemTeve Creative Commons License 2004.02.06 0 0 36
Nem hiszem, hogy a te gépeden lévő wget magától is fejlődne, úgyhogy szerezz be egy frissebb verziót
ftp://ftp.gnu.org/gnu/wget/
Előzmény: neszt76 (35)
neszt76 Creative Commons License 2004.02.06 0 0 35
Valaki próbált már wget-el egy 2 gigásnál nagyobb file-t letölteni? Mert nem megy. 2 gigánál kiírja, hogy vége. :(
Aszittem azért ezen a 2 gigás limiten már túljutott a számítástechnika az elmult pár éveben..
Wyfliff Creative Commons License 2002.10.21 0 0 34
sajnos command line-os kellene :(
szerverre, hogy tavolrol is lehessen birizgalni...
Előzmény: Solt (33)
Solt Creative Commons License 2002.10.21 0 0 33
Downloader for X
Mindent tud.
Előzmény: Wyfliff (30)
Wyfliff Creative Commons License 2002.10.21 0 0 32
azt talaltam a freshmeatn-en is :) Az csak 1 letoltest csinal tobb szalon nem? Kozben probalkozom a webget-tel (micsoda hasonlosag!:) ) de nagyokat szivok, de az mar az apache topikba tartozik...
kossz amugy.
NevemTeve Creative Commons License 2002.10.21 0 0 31
Nem tom, talan probald beirni a google-nak +"download manager" +linux, biztos talalsz egy csomot, pl mGet
Előzmény: Wyfliff (30)
Wyfliff Creative Commons License 2002.10.21 0 0 30
NevemTeve, bocs, de kicsit tovabb kene fejleszteni.
arra gondolok, hogy egyszerre csak 10 letoltest inditson el. Aztan ahogy egyet befejez kezdje az ujat... Arra is tudsz varazsiget vagy valamit?
Esetleg ajanlani vmi linux-os letoltes utemezot?
Előzmény: NevemTeve (28)
Wyfliff Creative Commons License 2002.10.20 0 0 29
milyen igaz!
koszi szepen!
Lassavv, de igy nem kell megvarni, mig a 9-el elottem levonek lejon a 4 filmje :) Mar csak plussz egy wincsi kellene a szerverbe es mar mehetne is ...
Előzmény: NevemTeve (28)
NevemTeve Creative Commons License 2002.10.20 0 0 28
#!/bin/sh
nohup wget "url1" &>wget1.out
nohup wget "url2" &>wget2.out
...

Persze igy valoszinuleg lassabb lesz mint egymas utan

Előzmény: Wyfliff (27)
Wyfliff Creative Commons License 2002.10.20 0 0 27
tegyuk fel, hogy van egy szovegfajlom, benne a letoltendo cuccok.
Hogy tudom azt megcsinalni, hogy ne egyenkent, egymas utan probalja oket letolteni, hanem egyszerre tobbet probaljon? Az sem baj, ha elkezdni mindet egyszerre.

Ha kedveled azért, ha nem azért nyomj egy lájkot a Fórumért!