sNews duplicated

Imam stran narejeno z sNewsom in nekaj kategorij, recimo Mineralna voda, Gazirana voda...

Nato mam v teh kategorijah po en članek, tako da ni povezave naprej. V meniju klikneš gazirana voda in bereš članek o gazirani vodi. URL je example.com/gazirana-voda.

Problem pa je, ker je google nekje našel link do example.com/gazirana-voda/gazirana-voda in ta stran je popolnoma podvojena stran example.com/gazirana-voda.

Zanima me, kakšno stukturo naredit, da google ne bo našel example.com/gazirana-voda/gazirana-voda.

9 odgovorov

Če daš v vse članke [break] po prvem odstavku bo pomagal. Če pa hočeš imet samo linke na članke lahko pa tud iz templata pobrišeš <categories stuff :)> pa postuš notr sam <articles neki...>

Sam jst bi meu indexerane sam strani:
example.com/gazirana-voda
example.com/mineralna-voda
.
.
.

Ne pa example.com/gazirana-voda/gazirana voda, kar bi mi poindexeral, če bi dau <articlesa...>

Sm pogruntu od kod edini link, če ga zbrišem ne bo indexeral in bo letel iz indexa?

Z google webmaster toolom se lahko link iz googla odstrani.
Še prej pa zadevo urediš, da je ne bo ponovno indexiral.

sux to. če ti konkurenca odkrije ta bug in ti nalinka te duplicate strani bi bil lahko problem.

if($_SERVER["REQUEST_URI"] == "/neka-voda/neka-voda/")
{
     header("Location: http://domena.com/neka-voda/");
}

@HeXeR
kaj pa če je link /neka-voda/neka-voda/neka-voda/neka-voda/ :)

Hmm, potem pa pač malo drugače =)

$t = explode("/", $_SERVER["REQUEST_URI"]);
if($t[1] == "neka-voda" && $t[2] != "")
{
     header("Location: http://domena.com/neka-voda/");
}

pa seveda moreš pred tem še odstranit //, /// etc ... :)

Pa ne bom za vsak članek posebi tega pisu... Rabm eno standartno... sNews je treba prepričat, da naredi 404 na vseh /xxx/xxx

A bo tak robots.txt zadostoval?

User-agent: *
Disallow: /voda/voda/
Disallow: /minera/miner/