orodje za obdelavo linkov
6 naročnikov
6 naročnikov
A obstaja orodje, ki obišče stran A in nato klikne na vse interne povezave in, ko pride na podstrani ponovi postopek? Zopet klikne na vse interne povezave... na koncu pa vse URLje te iste domene A izvozi v .txt? Podobno, kot seznam vseh indexiranih strani nekega spletnega mesta, le večje. Podobno poizvedbo se da naredit kar v googlu, ampak bo našel le indexirane strani....
12 odgovorov
Mogoče s kakšnim Link checker orodjem. Na primer z:
http://validator.w3.org/checklink/
Izvoz seznama v .txt bi moral narediti ročno.
schtr4jh:
Klik? Na koncu preneseš .txt datoteko.
Eeee to rabim:) Hvala. Saj bi šlo s scrapeboxom (inurl:domena), ampak nimam pravih proxijev za G.
Najbrž ne obstaja še tool, ki bi vsak URL shranil v html datoteko na disk kajne? Ah, bom pa sam naredil automata z winautomation:)
Katerikoli program za kopiranje strani bi to tudi naredil - sam uporabljam WinHTTrack ... uporabno, ce rabis tudi slike in js ter externe linke ... se da lepo nastavit kaj na pregleda include/exlude na koncu pa dobis tudi spisek vseh elementov v txt datoteki, poleg kopije strani seveda, za kar se to stvar uporablja :)
Joj kok je tega. Ravno testiram http://www.spadixbd.com/backstreet/ in dela zelo dobro:) Pa kako šiba:)
Perun:
Katerikoli program za kopiranje strani bi to tudi naredil - sam uporabljam WinHTTrack ... uporabno, ce rabis tudi slike in js ter externe linke ... se da lepo nastavit kaj na pregleda include/exlude na koncu pa dobis tudi spisek vseh elementov v txt datoteki, poleg kopije strani seveda, za kar se to stvar uporablja :)
Kaj pa, če je stran dinamična? Bo s tem toolom šlo?