Hva er en algoritme? – Google-sheriffens lovverk på Internett!
En algoritme er et sett med regler som følges av en datamaskin for å nå det målet som programmereren setter. I praksis blir algoritmer brukt av søkemotorer for å avgjøre hvor synlig ditt nettsted fortjener å være på Internett. Det er på sett og vis lovverket som Google setter for å sikre relevans og kvalitet i sine nettsøk. Skal din nettbedrift lykkes med sin digitale markedsføring er det derfor viktig å sette seg inn i hva en algoritme er.
I dette innlegget vil jeg sammenligne en algoritme med en sheriff i den ville vesten. Algoritmer er et verktøy benyttet av søkemotorer for å stoppe uønsket oppførsel på Internett. Dette kan ligne litt på situasjonen på slutten av 1800-tallet i USA, som ofte blir kaldt for «den ville vesten». På samme måten som den amerikanske regjeringen ønsket å stoppe lovløse forbrytere som Billy «the Kid» og Jessie James, har Google kjempet for å kvitte seg med både spam og manipulasjon av søkeresultater.
RELEVANT LESNING FRA VÅRT AKRIV: “Hvor viktig er kvalitet for synlighet på Google”
Selv om lovene i mange tilfeller var klare i den ville vesten, skapte mangel på ressurser og infrastruktur fra regjeringens side en lovløs situasjon som er blitt en viktig del av historien i den vestlige delen av verden.
Dette minner mye om situasjonen på Internett, der uærlige taktikker myldret før Google-sheriffen begynte å sette ned foten. Den ville vesten på Internett er enda ikke over. Flere lover må på plass før Internett blir fullstendig trygt for allmennheten. Der kommer dagens tema inn i bildet. Men hva er en algoritme for Google, og hvordan bruker de dette verktøyet?
Selv om Google er et kommersielt drevet selskap, er de med på å rydde opp i lovløsheten på Internett. De har nemlig satt seg som mål å gi sine kunder best mulig innhold gjennom søkemotoren sin. Dette gjør de ved å bruke algoritmer som kontrollerer hvilket innhold som kommer opp ved de forskjellige søkene.
Av de som prøver å utnytte smutthullene i algoritmene blir oppdateringene gjerne omtalt som «penalties» (straff). For de som leter etter god og relevant informasjon derimot, er endring i algoritmene stort sett noe positivt.
Google-algoritmenes historie
Hvordan algoritmer brukes i praksis finner vi ut ved kikke nærmere på Googles oppdateringer mellom 2003 og frem til to store oppdateringer som kom i 2011 og 2012. Vi går ikke kronologisk gjennom Google sine oppdateringer, men tar i stedet for oss de forandringene som best illustrerer hvordan algoritmer fungerer på Internett.
Google oppdaterer sine algoritmer i gjennomsnitt en gang om dagen ifølge Matt Cutts (direktør ved US Digital Service: (kilde). De viktigste oppdateringene får gjerne et navn. Navnet på oppdateringen blir er et symbol for å forstå hva slags endringer oppdateringen fører med seg.
Boston-oppdateringen
Googles algoritme kalt Boston-oppdateringen (2003) markerte et skille fordi algoritmene deretter ble større, hyppigere og mer seriøse. Forut for dette var det litt kaos og fritt frem for spammere.
Google ville ha en slutt på at folk ble ført bak lyset med dårlige søkeresultater. I motsatt tilfelle ville det i lengden ha ført til at de ville mistet sin troverdighet, og dermed mistet kunder.
Den ville vestens svar på Boston
På samme måte som Google satte en stopper for spammere i 2003, klarte nordstatene i USA å sette en stopper for borgerkrigen i 1865. Mange blodige kamper hadde blitt utkjempet og moralen var lav. Men etter krigens slutt vendte ro og orden tilbake i større grad.
Til tross for at krigen var over, ble ikke loven håndholdt tilstrekkelig i det som i etterkant er blitt referert til som «den ville vesten». Borgerkrigen etterlot seg et vakum av infrastruktur, noe som ble utnyttet av lovløse revolvermenn. Ettersom det var lite midler til å håndheve lov og orden i områdene lengst fra New York, var det ofte fritt frem for de som tok loven i egne hender.
Florida-oppdateringen
Mellom 2003 og 2005 ryddet Google for alvor opp i såkalte «black hat-strategier». (Begrepsforklaringer finner du nederst i innlegget.) Tusenvis av nettsider mistet sin rangering hos Google over natta fordi algoritmen ekskluderte uønsket nettinnhold fra søkeresultatene.
I kjølevannet kom en algoritme som het «Austin» (2004). Det var en oppdatering som tettet de fleste «hullene» i Florida-oppdateringen. Slik ble spammete metatekst og skjult innhold på nettsider luket bort i stor grad.
«Brandy» (2004) var nok en algoritme som ga Google nye funksjoner istedenfor å rydde opp i spam. For eksempel kunne søkemotoren nå identifisere synonymer. I tillegg ble både systemet for søketermer og registerfunksjoner forbedret.
«Allegra, Bourbon, Gilligan» og «Jagger» var oppdateringer som kom i denne perioden. Hovedoppgaven til disse var å rydde opp i linking fra eksterne sider. Ettersom eksterne linker var en kjempestor rangeringsfaktor allerede da, var det viktig for Google at folk ikke kunne jukse med dem og skaffe seg linker på «falskt» grunnlag.
Den ville vestens svar på Florida
Opprydningen som skjedde i regi av Google mellom 2003 og 2005, kan kanskje sammenlignes med kampen mot indianerne (som var de innfødte i USA). Situasjonen var ustabil fordi de innfødte utgjorde en seriøs trussel for nybyggerne.
Til tross for at de indianerne bare forsvarte sitt eget land, var de uansett et problem for de nye amerikanerne. Derfor kan de her sammenlignes med alle spammerne som mistet sitt livsgrunnlag i denne perioden. (Beklager at det måtte bli slik… jeg har ikke noe imot de innfødte i USA)
På den samme måten som Google rustet seg for å bli kvitt spammere i 2003, rustet den amerikanske regjeringen seg for å bli kvitt indianerne ved å eliminere livsgrunnlaget deres, nemlig bøffelen. Før år 1500 var det mellom 30 og 200 millioner bøfler i USA (kilde). I 1884 var de nesten utryddet. Dette førte til at indianerne kort tid etter måtte gi tapt.
Dette gjorde sitt til at mer ressurser kunne brukes på lov og orden. Ut av kaoset kom en sterk lederskikkelse som gikk lovens ærend (i alle fall til å begynne med), nemlig Wyatt Earp.
Dersom vi skal sammenligne noe med Austin-oppdateringen, er det nettopp en episode som utspilte seg Tombstone i Arizona i 1881. Wyatt Earp og gjengen hans drepte tre revolvermenn i en pistol-duell på gata.
Etterdønningen av kampen i Tombstone kan vi sammenligne med algoritme-oppdateringene som kom med Allegra, Bourbon, Gilligan og Jagger. Da ble nemlig det meste av revolvermenn tatt kverken på, og infrastrukturen i landskapet bedret.
Wyatt Earp temmet vesten med sine nye lovverk. Google-sheriffen temmer Internett med nye algoritmer.
Panda- og Penguin-oppdateringer
I forhold til forbedringer av den overordnede algoritmen som styrer rangering av forskjellige sider ved søk, skjedde det nå ikke overveldende mye frem til det plutselig smalt i 2011 og 2012. Da kom nemlig både Panda og Penguin på rappen: To av de største oppdateringene i hele Googles historie.
Panda (2011) sørget for bedre innhold på Internett ved å favorisere nettsider med godt skrevne tekster. Sider med unaturlig innhold og innhold skrevet av såkalte «content farms» (begrepsforklaringer finner du nederst i innlegget) ble luket ut fra søkeresultatene.
Penguin (2012) gikk hardt til verks mot såkalt «keyword stuffing» (begrepsforklaringer finner du nederst i innlegget) både i linker og nettsideinnhold samt bygging av unaturlige eksterne linker.
Den industrielle revolusjonen fikk for alvor vind i seilene på slutten av 1800-tallet. USAs vokste raskt til å bli verdens fremste industrinasjon. Det kan vi sammenligne med Googles introduksjon av tidligere nevnte funksjoner som Google Maps. I begge tilfeller ble konkurrentene helt tilsidesatt.
Den ville vestens svar på Panda og Penguin
Ut av den ville vesten dukket et par skikkelser som virkelig satt en stopper for videre utvikling: Billy The Kid og Jesse James var to lovløse banditter som var spesielt flinke på å lure seg unna lovens lange arm.
Til slutt klarte lovmenn likevel å få tatt kverken på disse problemskaperne. Billy the Kid og Jesse James ble tatt av dage i 1881 og 1882. De to største truslene i den ville vesten var fjernet, og et lovverk ble etablert i det nye samfunnet.
Denne opprydningen kan sammenlignes med Google sine algoritmer. Panda og Penguin ryddet unna lovløse internett-banditter, og la til rette for et nettsamfunn der Google-sheriffens lovverk regjerer.
Konklusjon
Hva er en algoritme? Det er et sett med regler som blant annet styrer hva slags resultater som dukker opp i søkemotorene. Google forbedrer stadig sine algoritmer for å tilby sine brukere den beste informasjonen som finnes på Internett. Spammere og markedsførere med innhold av lav kvalitet vil straffes av slike algoritmer. For de som ønsker å finne relevante søk med innhold av høy kvalitet, vil det som regel være en forbedring.
BEKGREPSFORKLARINGER:
Black hat-strategier: Strategier ofte forbundet med online markedsføring. Innhold av lav kvalitet blir forsøkt rangert høyt i søkemotorene på bakgrunn av å finne svakheter i algoritmer fremfor å lage godt innhold.
Keyword stuffing: En metode som går ut på å bruke et nøkkelord (keyword) mange ganger i en tekst for å oppnå god rangering hos Google. Ofte blir teksten unaturlig fordi man tvinger ordet inn i teksten mange ganger.
Content farm: Et konsept der Internettsider skrives uten noe særlig innhold. Trafikken kan gi inntekt i form av annonser på siden. Både webmasteren som eier siden og annonsøren som selger et produkt kan tjene penger på dette.
KILDER:
Youtube: Matt Cutts, Google’s Algorithm Changes
Seo.co: History of Google Algorithm Updates – A Comprehensive Guide
The History Channel: Civil War