SEO har alltid vært en vanskelig bedrift, ikke bare eksperter må bruke tid på å undersøke søkeord og følge de beste rutinene, de må være forberedt på endringene som søkemotorer uunngåelig setter på plass.

I fjor fikk søkegiganten Google to store algoritmeoppdateringer - Panda and Penguin - som så mange et nettsted plummet ned rangeringene, da de ble straffet av de nye reglene.

Dette skyldes at endringene ble implementert for å rangere nettsteder med dårlig kvalitet, for eksempel innholdsmøller og koblingsbedrifter, ned og gi mer vekt til nettsteder som produserer kvalitetsinnhold.

Dette gjøres ved å gjøre endringer i hvordan Googles edderkopper gjenkjenner et nettsted, og gir bedre rangeringer til nettsteder med kvalitet, godt skrevet innhold og sosialt medieoppdrag. For webprofessorer skapte dette noe av panikk, da statiske nettsteder som ikke var spesielt godt skrevet og fylt med søkeord, begynte å mislykkes.

Penguin og Panda oppdateringer stod på et nytt sett med regler og mer komplekse algoritmer designet for å rangere et nettsted på en rekke forskjellige faktorer.

Disse inkluderer:

  • Innhold: Google-edderkopper kan nå fortelle om et nettsted er dårlig skrevet, med stavemåte og grammatiske feil, mange annonser og dårlige kvalitetskoblinger. Denne endringen ser ut til å være en velkommen for mange seo og digitale fagfolk, da den straks banket dårlig artikkel syndikater og innholdsmøller nedover rekkene, slik at høy kvalitet kunne ta sin plass og være mer nyttig for søkere.
  • Friskhet: "Friskhet" av kopi har blitt viktigere for Google enn innkommende koblinger. Dette betyr at for å kunne konkurrere på Google, er det nødvendig å legge til nytt innhold ofte. Friskhetsrangeringen ser på 3 nøkkelområder: # 1: Trending emner som OL eller USAs valg # 2: Gjentatte kjente hendelser som Superbowl # 3: Hvor nylig har innholdet blitt lagt til.
  • Unikt innhold: noensinne har du kopiert og limt inn noe innhold på et nettsted for å kutte hjørner? Nå vil det også kutte nettstedets rangering. Opprinnelig innhold er et av de viktigste aspektene ved å bestemme posisjonen. Innhold som inneholder unaturlige lenker vil også bli straffet, så det er viktig å sikre at koblinger vises organisk og er svært relevante for innholdet. Dette kommer bare til å bli enda viktigere som Googles forfatter rangering tar av.
  • Sosialt: Som mange av dere vil vite, er sosial ny markedsføring og et meget kraftig verktøy for SEO. Google bruker nå sosialt i søkeresultatene for å fastslå hvor nyttig et nettsted er over hele linjen. Det er viktig nå for nettbaserte markedsførere og SEO-eksperter å inkludere sosialt, slik at alle merkevarefarger og logoer er ensartede på tvers av sosiale kanaler og nettsteder. I tillegg er det viktig at den sosiale tilstedeværelsen er godt administrert; dårlig, botstyrt sosial vil skade et nettsteds rangeringer.
  • Gratis fra tekniske feil: dette er spesielt viktig for webprofessorer, og vil uten tvil banke mange blogging-steder utenfor topp abbor. Et nettsted som har en lydarkitektur, vil fungere bedre enn et nettsted som er bygget av maler, Flash, eller er over to år gammel. Dette betyr at kode skal være standardbasert med gyldige CSS-koder og ryddig metadata.

Slik løser du problemer med et nettsteds rangering

Selv noen av de største nettstedene ble påvirket av endringene i Google-algoritmer, jeg leste av en som måtte fjernes rett tilbake for å kunne endre alle søkeordene og kopiere sidene.

Et nettsted som er dårlig skrevet, bør ha alt innholdet oppdatert, helst av noen som kan skrive. Dette inkluderer blogginnlegg og artikler, så hvis et nettsted har mye innhold som dette, kan det være en bedre ide å fjerne alt fra nettstedet og legge til når du får det, eller annet innhold, skrevet.

Metadata må også være rent og ryddig, og Google har en tendens til å ignorere søkeord og konsentrere seg om beskrivelser her. Nøkkelord selvfølgelig har fortsatt sin plass, og det er viktig å sikre at disse fortsatt er godt undersøkt og analysert, men artikler og blogger med høy søkeordets tetthet vil sannsynligvis bli straffet. Dette skyldes at søkeord, når det er overutnyttet, har en tendens til å kompromittere kvaliteten på skrivingen.

Panda konsentrert seg om å kvitte seg med de nettstedene som forsøkte å "lure" sine algoritmer med overbruk av søkeord og koblingsspamming. Hvis du har bestemt at et nettsted har nettsøppelkoblinger som peker på det, bruker du Googles Disavow Tool , som vil fjerne dem for deg. Det er imidlertid viktig på dette punkt å merke seg at en nøye sideutredning skal utføres for å identifisere dårlige koblinger, og det bør være forsiktig at verktøyet brukes.

For Panda er det også verdt å sjekke at innholdet på et nettsted er unikt. det må være 60% unikt hele nettstedet, så vel som tilgjengelig for å kunne passere Pandas regler.

Penguin konsentrert seg mer om det faktiske innholdet, og begge algoritmer oppdateres jevnlig for å finjustere dem. Penguin konsentrerer for det meste seg mest på søkeordfylling innenfor artikler og spam-linker.

I hovedsak er de både opptatt av tilgjengelighet, innhold, spammingsteknikker og nye regler som er utformet for å forhindre svart hatt SEO.

Hva er svart hatt SEO?

I utgangspunktet er dette en måte å forsøke å manipulere søkemotorene på, slik at det i utgangspunktet "triks" dem til å tro at et nettsted er verdifullt. Svart lue bruker aggressiv taktikk og er rettet mot søkemotoren, i stedet for et menneskelig publikum.

I de kommende artiklene vil jeg se på svart, hvit og gråhattteknikker for å gi en klar oversikt over hvilke som kan brukes trygt og hvilke er en no-no. Problemet som mange har funnet er at noen, mindre enn anerkjente, SEO 'eksperter' har ansatt svarthatt teknikker for å vinne flere kunder og få en rask pengene. Dette er grunnen til at noen forretningsområder har falt som en stein nedrangeringen, ofte uvitende om at de har gjort noe galt.

Black hat teknikker inkluderer:

  • pakkingskode med "skjult" tekst ;
  • link gårder hvor en gruppe nettsteder alle kobler til hverandre for å spam indeksen til en søkemotor;
  • blogg spam, bruk kommentarfeltet på blogger og forum for å plassere lenker til andre nettsteder;
  • skraping, en praksis der ett nettsted tar innhold fra en annen for å virke mer verdifull for søkemotorer;
  • døråpningssidene som brukes med det formål å lokke søkere med setninger som ikke er relatert til nettstedinnhold;
  • parasitær hosting , hvor et nettsted er vert på andres server uten tillatelse;
  • cloaking, en teknikk der søkemotorens edderkopp ser forskjellig innhold til sluttbrukeren som ser gjennom en nettleser.

Black hat metoder er sett av mange web-fagfolk å være uetisk, som de bruker taktikk som lover rask retur, men løp sjansen for å skade et selskaps omdømme, nettside og i sin tur overskudd.

Ved hjelp av svarte hattemetoder betyr det ofte at et nettsted ikke må vente måneder for linkbacks, som du ville med tradisjonelle hvite hattemetoder. Men det fyller også internett med ubrukelig informasjon og spam, og gjennom årene har det alvorlig påvirket søk.

Det er også billigere for SEO strategen å utføre så ofte, et bloggnettverk vil allerede bli satt opp for å koble til, og det er ikke avhengig av analytikk og innhold, som hvite hattpraksis gjør.

Ikke bare gjør bruk av svarte hattemetoder ofte føre til trusselen om rettslige skritt, hvis de brukes sammen med en PPC-kampanje, kan det hende store straffer fra reklameverten.

Det anbefales ikke at et nettsted bruker svarte lue teknikker på grunn av straffer involvert, i form av rettslige handlinger, omdømme og trusselen om ikke rangering. Men uten tvil vil det ikke stoppe alle, til tross for Google-oppdateringene.

Når vi sier at vi allerede ser innholdsfabrikker som raskt faller ned i rangeringene, så oppdateringene åpenbart fungerer, da dette er et av de viktigste områdene som Google ønsket å adressere.

Google og alle de store søkemotorene har en visjon, en som har til hensikt å rydde opp på nettet og gjøre unna med dårlig praksis, noe som fører til mer nyttig innhold som vises øverst på søk etter oss alle. Enten du bruker svarthattteknikker eller ikke, er det mellom deg og samvittigheten din, men sikkert er jeg glad for evnen til å søke og ikke komme opp med en side full av søppel før jeg kommer til det jeg vil ha.

Hvilke problemer har du på grunn av Panda og Penguin? Hvordan har du løst svarthatt teknikker ansatt av forgjengere? Gi oss beskjed i kommentarene.

Utvalgt bilde / miniatyrbilde, søk bilde via Shutterstock.