Podvajanje vsebine strani

Pozdravljeni,

nisem SEO strokovnjak, le pri pisanju naših (društvenih) spletnih strani skušam za silo upoštevat optimizacijo. Pred časom sem brala (tudi tukaj), da podvajanje vsebine Google kaznuje z nižjim kotiranjem. Zdaj pa ravno gledam eno množico med seboj povezanih strani, optimiziranih za isto ključno besedo, ki imajo prav vse isto vsebino.

Z isto dejavnostjo se ukvarjamo tudi mi in naše strani se začnejo pojavljat šele ob koncu prve strani seznama zadetkov. Stran res ni profesionalno optimizirana, ampak me vseeno čudi, zakaj jo strani iz množice podvojenih vsebin prehitijo.

A torej Google res opravlja ta nadzor?

9 odgovorov

Mogoče je samo začasna visoka uvrstitev... tako kot recimo te novice potresa na japonskem. Vse kar je bilo med prvimi zadetki, se je prevetrilo.

AklAm:
Pozdravljeni,

nisem SEO strokovnjak, le pri pisanju naših (društvenih) spletnih strani skušam za silo upoštevat optimizacijo. Pred časom sem brala (tudi tukaj), da podvajanje vsebine Google kaznuje z nižjim kotiranjem. Zdaj pa ravno gledam eno množico med seboj povezanih strani, optimiziranih za isto ključno besedo, ki imajo prav vse isto vsebino.

Z isto dejavnostjo se ukvarjamo tudi mi in naše strani se začnejo pojavljat šele ob koncu prve strani seznama zadetkov. Stran res ni profesionalno optimizirana, ampak me vseeno čudi, zakaj jo strani iz množice podvojenih vsebin prehitijo.

A torej Google res opravlja ta nadzor?

Če je konkurenca zelo enostavna, je to pogost pojav. Ti sam uporabljaj za vas pomemne ključne besede v tektu in naslovu, pa si že na pol poti. Druga polovica pa je gradnja backlinkov.

Kolikor se spomnim, so te strani na spletu okoli pol leta. Pravzaprav sem čakala, da jih bo Google zbenal. Očitno bo treba na delo, beklinki in to. Torej je kazen za podvajanje mit?

V dobesednem pomenu je to res mit :) Le logicno je treba pomislit, pa ti je hitro jasno kaj gugl lahko naredi in kaj ne more ... Jasno da nihce ne bo preverjal strani rocno, vse dela avtomatika ...Kaj je original lahko doloci le na osnovi casa objave in specificne teze strani, na kateri je clanek objavljen. Iz tega jasno izhaja, da ce bo tvoje clanke kopirala ena referncna (kakovostna) stran, se lahko slikas z originalno vsebino :)

Če bi bila podvojena vsebina tak tabu, nebi skoraj noben novičarski portal imel obisk iz iskalnikov.

Zadnja posodobitev algoritma Google (Farmer) bo vplivala tudi na višjo uvrstitev originalne vsebine, podvojenih kopij pa nižje.

S tem se sploh ne ukvarjam, ker zase in za naročnike pišem originalno vsebino in spletišče lahko postane "avtoritetno" v slabem letu ali še prej (res je lepo videti prve štiri povezave z istega spletišča :-). Glede na to, da je EzineArticles padel v zadetkih iskanja, bo treba torej paziti na "šopanje" obiskovalcev z oglasi na strani. Torej spet slogan Google "don't be evil" - še bolj je torej pomembna vsebina na strani za obiskovalca ne le želja za zaslužkom (AdSense).

Torej, AklAm - pišite originalne vsebine, zmerna interna optimizacija (2-4% frekvenca ključne besede plus pravilno v meta oznakah in vsebini) in počasna zunanja optimizacija (do 30 povezav na dan, 80% z isto ključno besedo, preostanek z nekaj variacijami).

Sicer so na voljo orodja za postanje zapisov npr. v blog (iz vsebin v spletu), toda Google bo sedaj upošteval tudi to. Tem orodjem preostane le še spreminjanje vsebin (ang."article rewriting") in navidezno spreminjanje vsebin (za iskalnike, s kodami znakov, za obiskovalce je vsebina enaka). Moje mnenje: tudi to bodo googlovci enkrat odkrili, naslednja posodobitev algoritma pa bo tudi te bloge "kaznovala". Google že priporoča, da vsebine od drugod objavljaš v ločenih podstraneh spletišča in določiš, da jih iskalniki ne indeksirajo.

1

daj Googlu kar želi on in on ti bo dal kar želiš ti ... as simple as that

se popolnoma strinjam z tabo Sergej . Google vedno bolj dela na LSI ... firma od katere je
kupil Adwords se je ukvarjala z semantiko ....

zanimivo je videti kako deluje iskanje z googlovimi sinonimi z uporabo znaka ~ pred geslom

Ni glih iz referenčnega vira je pa luštno napisano
.....................................................................................

How to Get Web Traffic Using Latent Semantic Indexing
http://www.ehow.com/how4509983get-web-traffic-using-latent.html

Latent semantic indexing (LSI) is an algorithm that uses synonyms and related words to determine the relevancy of a document to a set of search words. LSI and similar document-ranking methods have revolutionized the way that search engines rank pages. You can get much more Web traffic by writing for LSI than from old-fashioned keyword density enhancement. Instead of having to stuff keywords into a Web page, writers can now insert relevant terms to get higher search engine rankings.

1

http://lsikeywords.com/
How LSI Keywords Work
This tool searches the top 10 in Google for a phrase you like to rank highly for. Then it collects all the text from these 10 result pages and calculate the most used words and phrases on these pages. It then orders them by number of times used. With this data you know exactly why these pages rank highly in Google. It's all about theming and using LSI Keywords. For more proof and info about this subject read further

1