PHP - Shrani celotno vsebino strani

Zanima me če kdo ve kako bi s php kodo shranil celotno vsebino neke stran: html, slike, javascript ipd?

Našel sem že ukaz filegetcontents ampak ukaz deluje samo za HTML kodo.

$url = 'www.nekastran.com';

$handle = file_get_contents($url);

$f=@fopen("dump.txt","a");
fwrite($f,$handle);
fclose($f);

10 odgovorov

Pojdi še skozi img tage, css img tage, javascript hrefe pa imaš celotno stran shranjeno:)

1

verjetno kaj že obstaja vendar hitri google search ni vrnil nič pametnega... zakaj pa ne spišeš sam?

vse kar rabiš je shraniti html vsebino (to že imaš) in potem uporabiš nek html parser in poloopaš po vseh slikah in js itd in jih downloadaš...

wget -r :)

Fantje hvala za tole, ampak če sam tega ne bi znal, ne bi tukaj vprašal. Za nekoga je to mogoče samoumevno, meni, ki pa tega še nikoli nisem dela, pa ravno ne. Žal... :(

Sem že kar preiskal googla, ampak kot je FrEaKmAn, tudi jaz nisem dobil uporabnih rezultatov.

'wget' ti shrani celotno stran, rekurzivno, še depth mu lahko nastaviš. To je verjetno boljša izbira kot pa preko phpja, ker se boš zapletel v 1000 in eno težavo, ko boš poskušal programirati to stvar, da ti bo posebej zlovdala še slike/js-je/css-e in jih pravilno razporedila v folderje itd, tako da bo stran vidna na koncu... Ne priporočam ti tega.

@bl4ckb1rd: hvala, ampak zadevo bi moral imeti na strežniku in morala delovati prek PHP-ja

Kot prvo se boš zapletel v vse možne kombinacije src=/path/ src='path' src= "path", pri slikah, potem imaš še css za sparsat (verjetno vseh slik iz cssa niti ne rabiš za 1. stran) potem je še javascript tu... skratka, good luck.

Aha se pravi je zajeb"#% ni pa nemogoče? :) mah sej če bi blo vse tok simpl, bi že vsi živel pravo virtualno življenje tuki gor :) Thx za info

Seveda ni nemogoče, vse se da če se hoče, vprašanje pa je ali se splača to kodirat...

Mogoče pa pokliči wget z PHP-jem:)?