Archive for the hakukoneoptimointi tag

Joni

Kuinka Google toimii? Keskeiset lähteet.

suomeksi

Googlen algoritmin tarkka toiminta on liikesalaisuus. Siihen, mitä tiedetään, paras lähde on Googlen oma sivusto.

Tässä keskeisimpiä linkkejä:

Hakukoneoptimoinnista löytyy paljon spekulointia – parasta on nojautua Googlen viralliseen tietoon. Monet ns. tutkimukset, joita näkee alan blogeissa, eivät kestä akateemista tarkastelua, eikä niitä siksi voi käyttää lähteinä. Aina aika ajoin ne esimerkiksi julistavat, että “SEO on kuollut”, tai että “linkit eivät enää merkitse”, tms. juttuja, joilla ei ole todellisuuspohjaa. Virallisen sivun lisäksi Googlen blogi ja Matt Cutts ovat hyviä lähteitä – Matt ei enää töissä Googlella, mutta Twitter-historiasta löytyy paljon vastauksia (vastasi hakutulosten laadusta).

Huomioi myös:

Google ei näytä kaikille käyttäjille samoja tuloksia: https://googleblog.blogspot.qa/2009/12/personalized-search-for-everyone.html

Toiseksi Google käyttää satoja tai tuhansia signaaleja, ja jokainen hakutulossivu on niiden päätösten uniikki tulos. Googlen algoritmi saattaa sisältää neuroverkkotoimintoja (syväoppimista), joiden tuloksena on hankala jäljittää tietyn hakutuloksen näyttämisen syytä. Näiden syiden vuoksi on parasta välttää yleistyksiä “parhaista käytännöistä”. Paras sääntö kokemuksen mukaan on: tee käyttäjäystävällisiä ratkaisuja, niin teet parasta hakukoneoptimointia.

Joni

Hakukoneoptimointi toimittajan näkökulmasta

suomeksi
Hakukoneoptimointi toimittajan näkökulmasta

Johdanto

Media on riippuvainen mainostuloista. On jatkuva kiistelyn aihe, miten paljon toimittajien tulisi kirjoittaa juttuja, jotka saavat klikkejä ja näyttöjä suhteessa juttuihin, joiden yhteiskunnallinen merkitys on korkea. Nämä kaksi kun eivät aina kulje käsi kädessä.

Sosiaalisen median ja hakukoneiden merkitys toimittajan työssä

Käytännössä toimittajat joutuvat työnsä puolesta huomioimaan juttujen kiinnostavuuden sosiaalisessa mediassa. Tämä on tärkeää vaikka haluaisi kirjoittaa vain yhteiskunnallisesti tärkeistä aiheista, koska huomion saaminen kilpailevan sisällön keskellä on ainut tapa saada viestinsä läpi. Sosiaalisen median osalta on siis huomioitava sellaisia seikkoja kuin 1) vetävän otsikon muotoilu, 2) vetävän esikatselukuvan valinta, ja 3) object graph -metatietojen muokkaaminen (vaikuttavat siihen miltä linkki näyttää sosiaalisessa mediassa).

Sosiaalisen median lisäksi toimittajan on huomioitava hakukoneoptimointi, sillä somen ohella hakukoneet ovat tyypillisesti merkittävä liikenteen lähde. Mitä paremmin artikkelit on optimoitu, sitä todennäköisemmin ne sijoittuvat tärkeillä avainsanoilla korkealle Googlen tuloksissa.

Mitä toimittajan on tiedettävä hakukoneoptimoinnista?

Juttuja kirjoittaessaan toimittajan on huomioitava seuraavat seikat hakukoneiden kannalta:

  1. Avainsanat – kaikessa pitää lähteä siitä, että tunnistetaan oikeat avainsanat, joilla artikkelin halutaan löytyvän. Tässä kannattaa hyödyntää avainsanatutkimuksen työkaluja, kuten Googlen avainsanatyökalua (Keyword Planner).
  2. Pääotsikko ja väliotsikot – valittujen avainsanojen tulee näkyä jutun otsikossa ja väliotsikoissa. Väliotsikot (h2) ovat tärkeitä, sillä ne luovat hakukoneelle ymmärrettävissä olevan rakenteen, sekä tukevat käyttäjien luontaista, skannaukseen pohjautuvaa verkkolukemista.
  3. Linkit – jutussa tulee olla linkkejä muihin lähteisiin oikeanlaisilla ankkuriteksteillä merkittynä. Ei “lisää tietoa lisäravinteista saat klikkaamalla tänne“, vaan “esimerkiksi Helsingin Sanomat on kirjoittanut useita juttuja lisäravinteista“.
  4. Teksti – kappaleiden tulee olla lyhyitä, sisältää selkeästi luettavissa olevaa kieltä ja optimoitavia avainsanoja sopiva määrä. Sopivan määrän mitta on se, että avainsanoja on luonnolliselta tuntuva määrä – liikaa toistoa ei saa olla, koska Google voi tulkita sen manipulointiyritykseksi.

Ennen kaikkea kirjoitetun artikkelin tulee olla sekä käyttäjälle miellyttävä lukea, että hakukoneelle helposti ymmärrettävä. Nämä kaksi seikkaa yhdistämällä hakukoneoptimoinnin perusteet ovat kunnossa.

Joni

Miten tuottaa lisäarvoa dynaamisella uudellenkohdennuksella?

suomeksi

Juttelin tänään erään Facebookin edustajan kanssa, jonka tehtävänä on auttaa Elämyslahjoja tekemään parempaa Facebook-mainontaa.

Keskustelu pyöri aloittelijatasolla, kunnes sanoin että olemme tehneet Facebook-mainontaa jo monta vuotta ja tiedämme nämä perusjutut.

Silloin henkilö ehdotti meille Facebookin dynaamista uudellenkohdennusta (eng. dynamic retargeting). Ko. mainonnan muoto siis toimii niin, että tietyllä tuotesivulla käyneelle henkilölle näytetään Facebookissa samasta tuotteesta mainoksia. Katsot siis verkkokaupasta kenkiä, ja näet samat kengät Facebook-mainoksessa.

Hän suositteli sitä meille, koska se kuulemma toimii. Kysyin että miksi se toimii? No, hän sanoi, että ensinnäkin monet isot verkkokauppa-asiakkaat käyttävät sitä ja toiseksi se tuottaa hyvin konversioita.

Tarkastellaan näitä argumentteja:

A) “Muut käyttävät” –> pätevyys: huono, koska se että muut tekevät jotain ei tarkoita että se olisi järkevää; nettimarkkinoinnissa on paljon harhaisia markkinointikäsityksiä, jotka ajavat tehottomuutta, isoissakin firmoissa.

B) “Tuottaa konversioita” –> pätevyys: luultavasti huono, koska attribuutio ja ostoprosessi osuvat yksiin, jolloin Facebook-mainos saa sille “kuulumatonta” kunniaa myyneistä. Kirjoitin tästä ilmiöstä täällä.

Selitin siis nämä perustelut ja kerroin että tarkoitin kysymyksellä sitä, että mitä lisäarvoa kyseinen ominaisuus tuottaa asiakkaalle. Henkilö selkeästi häkeltyi, eikä osannut vastata. Hän sitten toisti ensin sanomansa argumentit.

Rupesin miettimään tätä asiaa.

Oikeasti – mitä hyötyä on siitä, että henkilö A näkee tuotteen X vielä uudelleen mahdollisesti viikkojen ajan uudelleenmarkkinoinnissa? Kun hän selailee Facebookia tai uutissivustoja. Se sama tuote, jonka jo katsoin läpi enkä ostanut.

Omassa päätelmässäni ei mitään hyötyä. Päinvastoin, se on hukattu mahdollisuus. Miksi “hukattu”?

Koska itse tieto siitä mistä tuotteesta henkilö oli kiinnostunut on erittäin arvokas, jos sitä käytetään oikein.

On väärin näyttää samaa tuotetta uudelleen ja uudelleen ja kuvitella, että ihminen yhtäkkiä muuttaisi mielensä. Tämä on sama kuin inttäminen perinteisessä myynnissä. Toimiiko sellainen taktiikka? Ei toimi. Inttämisen sijaan pitää tarjota vaihtoehtoja, ja kun tiedetään mistä asiakas on ollut kiinnostunut, voidaan sitä tietoa käyttää suosittelun pohjana.

Toisin sanoen Facebook kehottaa käyttämään uudelleenkohdennusta näin:

1) Kerro lisää samasta tuotteesta –> uskottavuus: matala, koska tämä on inttämistä (ts. tarjotaan sama asia tuhat kertaa, ja odotetaan eri tulosta = Einsteinin määritelmä typeryydelle)

2) Muistuta ostamisesta –> uskottavuus: matala, koska ihmisen muisti on pidempi kuin kultakalan (ts. olen jo nähnyt tuotteen ja päättänyt että ei)

Molempien taustalla on väärä ihmiskuva: “ihmiset ovat tyhmiä ja manipuloitavissa, joten heitä tulee koko ajan muistuttaa ja he kuin taikaiskusta päättävätkin ostaa tuotteen.” Ajatellaan, että ihmiset ovat aivottomia robotteja. Todellisuudessa retargeting toimii suureksi osaksi mainitsemani attribuutioharhan vuoksi, ei sen takia että se tuottaisi aitoa lisäarvoa.

Kuinka sitten tehdä asia oikein? Mahdollisuuksia tuottaa aitoa lisäarvoa dynaamisella uudelleenkohdennuksella ovat ainakin:

1) Ylösmyynti (eng. upselling, en löytänyt hyvää suomenkielistä käännöstä) – suositellaan asiakkaalle kalliimpaa (tai edullisempaa) vaihtoehtoa ja mahdollisesti lisäosia taikka lisäpalveluja. Lue lisää.

2) Ristiinmyynti (eng. cross-selling) – suositellaan asiakkaalle täydentäviä tuotteita (komplementteja); esim. jos ostit kengät, osta sukat, jne. Lue lisää ristiinmyynnistä.

Molemmissa taktiikoissa ajatuksena on, että suositellaan asiakkaalle tuotteita, joita hän ei ole vielä nähnyt, mutta joista hän datamme perusteella voisi olla kiinnostunut. Tilastollisten mallien avulla pystytään tunnistamaan paitsi tuotteiden suhdetta toisiinsa, myös tekemään suosituksia aikaisempien asiakkaiden ostoskorien sisällön perusteella. Ao. kuva havainnollistaa asiaa.

Lähde: Liukkonen, 2016

Yritysten pitäisi siis rakentaa samanlaisia suosittelukeinoja (eng. recommendation engine) mainontaan kuin mitä verkkosivuilla käytetään (ks. esim. Amazon, suomalaisia palveluntarjoajia ovat ainakin Nosto ja Custobar). Näillä voidaan parantaa mainonnan relevanssia ja ennen kaikkea tuottaa lisäarvoa. Perinteisessä myynnissä tehokkaiksi havaitut taktiikat tulisi jalkauttaa sopivalla tavalla verkkoon, koska niiden takana on pitkä tutkimus ja käytäntö ja niiden toimivuus voidaan täten perustella.

Johtopäätös: Dynaamisessa uudelleenmarkkinoinnissa kannattaa 1) näyttää mitä asiakas ei ole nähnyt, ja 2) tuottaa lisäarvoa (ei spämmiä).

Olin häkeltynyt kuinka pinnallisia ja yksioikoisia suosituksia sain Facebookin edustajalta (ihmiskuva? robotti; lisäarvo? ei mietitä). Mutta olen opettaessani huomannut tämän ennenkin: markkinoinnin opiskelijoille syötetään väärää mielikuvaa yksinkertaisista asiakkaista, joiden manipulaatioon (konversioon) riittää tietty määrä toistoja. Tungetaan pullaa kurkusta alas, jos ei hyvällä niin pahalla.

Tällainen vanhanaikainen ihmiskäsitys — ns. spämmääjän mentaliteetti — on markkinoijalle haitallista. Spämmäävä markkinointi johtaa reaktanssiin ja mainosten yleiseen vastustukseen. Lisäksi ohjelmallisessa ostamisessa on muitakin laatuongelmia, joten markkinoijien tulisi kaikin keinoin pyrkiä toteuttamaan lisäarvon periaatetta.

Toivottavasti tämä artikkeli herätti ajattelemaan asioista toisella tavalla, ainakin dynaamisen uudelleenkohdistuksen kontekstissa.

Joni

Ohjelmallisen ostamisen alusta: ideaaliominaisuuksia

suomeksi

Full-metal digitalist.

Maailma muuttuu, markkinoijani

Tällä hetkellä digitaalinen media on siirtymässä ohjelmallisen ostamisen malliin, ts. mainokset ostetaan ja myydään mainosalustan (esim. Google AdWords, Facebook) kautta. Myös perinteinen offline-media (TV, printti, radio) tulee ajan myötä siirtymään ohjelmallisen ostamisen järjestelmiin, joskin tässä menee arvioni mukaan vielä 5-10 vuotta.

Miksi ohjelmallinen ostaminen voittaa?

Syy on selkeä:

Ohjelmallinen ostaminen on lähtökohtaisesti aina tehokkaampaa kuin vaihdanta ihmisten välityksellä.

Taloustieteen näkökulmasta tarkasteltuna mainosvaihdantaan, kuten kaikkeen vaihdantaan, liittyy transaktiokustannuksia: hinnan neuvottelu, paketointi, yhteydenpito, kysymykset, mainosten lähettäminen, raportointi jne. Tämä on ihmistyötä joka maksaa aikaa ja vaivaa, eikä johda optimiratkaisuun hinnan tai mainonnan tehokkuuden kannalta.

Ihminen häviää aina algoritmille tehokkuudessa, ja mainonta on tehokkuuspeliä.

Edellä mainitut transaktiokustannukset voidaan minimoida ohjelmallisen ostamisen kautta. Mediamyyjiä ei yksinkertaisesti tarvita enää tässä prosessissa; samalla mainonnasta tulee halvempaa ja demokraattisempaa. Toki siirtymävaiheessa tulee olemaan siirtymäkipuja, etenkin liittyen organisaatiorakenteen muutokseen ja kompetenssin päivittämiseen. Bisneslogiikassa on myös siirryttävä “premium”-ajattelusta vapaaseen markkina-ajatteluun: mainostila on vain sen arvoinen kuin siitä saatavat tulokset ovat mainostajalle — nämä tulevat olemaan pienempiä kuin mediatalojen nykyinen hinnoittelu, mikä onkin negatiivinen kannustin siirtymän hyväksymiseen.

Mitkä ovat menestyksekkään ohjelmallisen ostamisen alustan ominaisuuksia?

Näkemykseni mukaan niitä ovat ainakin nämä:

  • matala aloituskustannus: tarvitaan vain 5 euron budjetti aloittamiseen (näin saadaan likviditeettiä alustalle, koska myös pienmainostajien on kannattavaa lähteä kokeilemaan)
  • budjettivapaus: mainostaja voi vapaasti määrittää budjetin, ei minimispendiä (ks. edellä)
  • markkinapohjainen hinnoittelu: tyypillisesti algoritminen huutokauppamalli, joka kannustaa totuudenmukaiseen huutamiseen (vrt. Googlen GSP ja Facebookin VCG-malli)
  • suorituspohjaisuus: hinnoittelukomponentti, jolla “palkitaan” parempia mainostajia ja näin kompensoidaan mainonnan haittoja loppukäyttäjälle
  • vapaa kohdennus: mainostaja voi itse määrittää kohdennuksen (tämän EI tule olla mediatalon “salattua tietoa”)

Nämä ominaisuudet ovat tärkeitä, koska kansainväliset kilpailijat jo tarjoavat ne, ja lisäksi ne on osoitettu toimiviksi niin teoreettisessa kuin käytännöllisessä tarkastelussa.

Tärkeitä näkökulmia mainostajan näkökulmasta ovat:

  • demokraattisuus: kuka vain voi päästä alustalle ja käyttää sitä itsepalveluna
  • tulospohjaisuus: maksetaan toteutuneista klikeistä/myynneistä, ei ainoastaan näytöistä
  • kohdennettavuus: mainostaja voi itse säätää kohdennuksen, mikä nostaa relevanssin mahdollisuutta ja näin vähentää mainonnan negatiivista verkostovaikutusta (ts. asiakkaiden ärsyyntymistä)

Kohdennusvaihtoehtoja voivat olla esim.

  • kontekstuaalinen kohdennus (sisällön ja mainostajan valitsemien avainsanojen yhteensopivuus)
  • demograafinen kohdennus (ikä, sukupuoli, kieli)
  • maantieteellinen kohdennus
  • kävijän kiinnostuksen kohteet

Osa näistä voi olla mediataloille hankalia selvitettäviä, ainakaan hankalampaa kuin Facebookille – kohdennus on kuitenkin mainonnan onnistumisen kannalta kriittinen seikka, joten tietojen saamiseksi on tehtävä työtä.

Johtopäätös

Ohjelmallisen ostamisen alustat ovat mediatalon ydinkompetenssia, eivät ostopalvelu. Siksi uskonkin, että alan toimijat lähtevät aggressiivisesti kehittämään kompetenssiaan alustojen kehittämisessä. Tai muuten ne jatkavat mainoskakun häviämistä Googlen ja Facebookin kaltaisille toimijoille, jotka tarjoavat edellä mainitut hyödyt.

Kirjoitin muuten mainosvaihdannasta pro gradun otsikolla “Power of Google: A study on online advertising exchange” vuonna 2009 — jo siinä sivuttiin näitä aiheita.

Joni Salminen
KTT, markkinointi
[email protected]

Kirjoittaja opettaa digitaalista markkinointia Turun kauppakorkeakoulussa.

Joni

Koneoppiminen ja Googlen algoritmi

suomeksi

Johdanto

Tämä postaus sisältää muutamia Rand Fiskinin (MOZ) “What Deep Learning and Machine Learning Mean For the Future of SEO” -videosta syntyneitä ajatuksia.

Video löytyy täältä, ja se kannattaa katsoa jotta pysyy kärryillä.

Mikä on SEO:n tulevaisuus koneoppimisen myötä?

Kukaan ei varmasti tiedä, miltä osin Google on jo implementoinut koneoppimisen periaatteita sijoittelualgoritmiinsa. Kertauksen vuoksi, koneoppiminen voidaan määritellä avustetuksi tai avustamattomaksi ohjelmistotoiminnaksi, jossa algoritmi löytää ns. harjoitusaineiston avulla yleisesti tehokkaimman ratkaisun tiettyyn, määriteltyyn tavoitteeseen nähden

Fiskinin visiossa Google soveltaa koneoppimista niin, että sijoittelualgoritmin sisältö (ominaisuudet ja niiden painotukset) ei olisi enää ennalta määritelty, vaan se tehtäisiin koneoppimisen kautta. Tähän liittyen algoritmilla ei olisi yleistä muotoa, vaan se mukautuisi esim. hakuteemojen ja hakijoiden mukaan (jo nythän tuloksia personoidaan hakijan tunnettujen ominaisuuksien mukaan).

Tärkein “uusi” hakukoneoptimoinnin parametri?

Mikäli koneoppimisalgoritmi määrittäisi kaikista saatavilla olevista datapisteistä merkittävimmät onnistuneen haun kannalta (tulkittu ei-palaavana hakijana tietyllä lyhyellä aikajaksolla), mikä olisi tärkein SEO-parametri? Tietysti ländäri, jonka pitäisi varmistaa että kävijä jää.

Toiseksi tärkein olisi SERP-teksti, johon voidaan vaikuttaa metadatalla ja HTML-tägeillä (yllätys yllätys, niillä jolla “ei ole enää väliä”), koska siinä pitäisi a) saavuttaa suhteellisesti korkea CTR ja b) viestiä totuudenmukaisesti, jotta relevanssi SERPin ja ländärin välillä pysyy korkealla tasolla.

Kuten huomataan, kumpikaan näistä parametreistä ei ole uusi, eikä uusia parametrejä voi syntyäkään niin kauan kuin algoritmin käytettävissä olevat ominaisuudet (ominaisuusavaruus) eivät laajene.

Koneoppimisen riski

Koneoppimisen soveltamisessa on mukana yleisesti tunnettu “big datan” helmasynti, eli harhaanjohtavat korrelaatiot. Mitä enemmän hakujen tulkinnassa mennään kontekstisidonnaisuuteen, sitä todennäköisemmin mukaan tulee harhaanjohtavia korrelaatioita. Mitä enemmän muuttujia kone ottaa mukaan (tuhansia), sitä todennäköisemmin mukaan tulee harhaanjohtavia korrelaatioita. Eli “totuuden” selvittäminen vaatii aina kontrolloitua testausta, ja sen puute on merkittävä rajoite tavanomaisissa koneoppimisimplementoinneissa.

Johtopäätös: Ei mitään radikaalia

Jos Fiskinin visiota vertaa nykyiseen Google-algoritmiin (sellaisena kuin se yleisesti tunnetaan), niin nykyisin käytetään suoria mittareita, joiden perusteella lasketaan pistearvo ja pistearvot summaamalla määritetään indeksissä olevien sivujen sijainnit suhteessa tiettyyn hakuun.

Uudessa mallissa kone rakentaisi mallin joka mittaisi suorien mittareiden välisiä suhteita, vaikka niin että mistä mittareista bounce muodostuu (ts. mitkä ennustavat sitä parhaiten). Tämä ei siis tarkoita että SEO-parametrit muuttuisivat jotenkin turhiksi (koska ne ovat välttämätön osa ominaisuusavaruutta, josta kone rakentaa mallin), vaan että niiden painotus tarkentuisi koneoppimisen kautta.

“Käyttäjäystävällisyys” eli hakijan palveleminen on aina ollut Googlen hakualgoritmin peruskivi, ja ystäväni Viet Dang puhui jo vuonna 2010 UFO:sta (= User-Friendly Optimization) SEO:n sijaan. Niin kauan kuin yleisesti tunnetuilla tekijöillä (nopeus, hyvä copyteksti, haun suhteen relevantti tarjonta) on välillinen tai välitön kytkös käyttäjän tyytyväisyyteen (jota Google mittaa epäsuorasti), eivät hakukoneoptimoinnin perusteet muutu.

Mikä olisi paras tapa hyötyä koneoppimisesta?

Hakukoneoptimoija hyötyisi eniten, jos hän rakentaisi oman koneoppimisalgoritmin hakuja varten ja ajaisi sitä omassa hakuympäristössään (ts. oikeassa maailmassa). Koneen luoma malli mahdollistaisi hakukäyttäytymisen syvällisemmän ymmärtämisen ja tulosten yleistämisen hakukoneoptimointiin Google-ympäristössä. Koska tämä menetelmä kuitenkin vaatisi käytännössä oman hakukoneen rakentamisen, ei se liene realistinen vaihtoehto keskivertohakukoneoptimoijalle.

Joni Salminen
KTT, markkinointi

Joni Salminen toimii tutkijana Turun kauppakorkeakoulussa. Hänen osaamisalueitaan ovat digitaalinen markkinointi, Internet-alustat, ja verkkoliiketoiminta.

Joni

Neljä tapaa tehdä avainsanatutkimusta AdWords-kampanjaa varten

suomeksi

Avainsanatutkimus on hakukonemarkkinoinnin tärkein osa-alue: se kertoo mitkä avainsanat ovat tärkeitä toimialalla, niissä ilmenevän kilpailun, hakuvolyymin ja arvioidun hinnan. Näiden tietojen perusteella hakukonemarkkinoija valitsee termit joihin keskittyä – toisin sanoen joista tarjotaan hakusanaminonnan huutokaupassa (esim. AdWords) tai joille optimoidaan verkkosivujen sisältöä ja linkkejä.

Tämä artikkeli kuvaa lyhyesti kuinka keksiä uusia avainsanoja. Prosessi on syntynyt opettaessani digitaalista markkinointia Turun kauppakorkeakoulussa, ja se soveltuu hakusanamainontaan, mutta osin myös hakukoneoptimoinnin tueksi.

Prosessissa on neljä vaihetta:

1. Ideointi
2. Google Keyword Planner
3. Google Trends
4. Ubersuggest

Kuvaan nämä vaiheet nyt tarkemmin.

Ideointivaiheessa tiimi miettii keskenään millä hakusanoilla ihmiset voisivat hakea toimialaan liittyvää tietoa, tuotteita tai palveluita Googlesta. Tässä pitää tuntea sekä yrityksen tarjooma että toimiala yleisesti, sekä soveltaa psykologista silmää hakijan näkökulman omaksumiseen. Inspiraatiota saa yrityksen nettisivuja tarkastelemalla sekä markkinointipersoona-ajattelulla, jossa pyritään luomaan arkkityyppejä potentiaalisista asiakasryhmistä (ja sitten miettiä miten näiden ryhmien, esim. teini-ikäiset vs. eläkeläiset, hakukäyttäytyminen eroaa).

Google Keyword Planneria käytetään selvittämään potentiaalisten avainsanojen kilpailu, volyymi ja hinta. Nämä ovat hyödyllisiä tietoja etenkin hakusanamainonnassa. Tiimi syöttää edellisessä vaiheessa keksimänsä avainsanat Google Keyword Planneriin ja katsoo a) millaisia avainsanoja Google ehdottaa näiden perusteella lisättäväksi, ja b) mitkä ovat avainsanojen kilpailu, volyymi ja hinta. Ideaalitilanteessa keskitytään avainsanoihin, joissa kilpailu on matala tai keskitasoa ja volyymi korkea. Tämä kuitenkin riippuu avainsanastrategiasta – esim. ns. pitkän hännän strategia (longtail) pohjaa siihen, että avainsanahuutokaupassa tarjotaan tuhansista pienen hakuvolyymin avainsanavariaatioista, jotka yhdessä muodostavat merkittävän määrän klikkejä. Tällöin yksittäisen avainsanan volyymi ei ole merkittävä valintakriteeri. Työkalun käyttöä voidaan täydentää syöttämällä yrityksen (tai kilpailijan) verkkosivun osoite, jolloin Google ehdottaa avainsanoja verkkosivun sisällön perusteella.

Google Trends kuvaa avainsanojen trendikehitystä ja on siten tärkeä työkalu ilmiöiden suosiota arvioitaessa. Tiimi käyttää sitä a) vertaillakseen avainsanojen välistä suosiota ja b) saadakseen lisäinformaatiota siitä, mitkä variaatiot ovat suosittuja Googlessa juuri nyt. Nämä tiedot saa syöttämällä useamman avainsanan työkaluun, jolloin se näyttää graafisesti niiden hakuvolyymin indeksiarvot.

Ubersuggest on työkalu, joka perustuu Googlen hakusuositteluominaisuuteen (autocomplete). Se hakee antamistasi avainsanoista Googlen ehdottamat variaatiot. Nämä voivat erota aikaisemmin mainittujen työkalujen suosittelemista termeistä, minkä vuoksi Übersuggest on hyödyllinen lisä avainsanatutkimukseen. Hakusanamainontaa tehdessäsi tunnista työkalun avulla sekä positiiviset että negatiiviset variaatiot – jälkimmäiset ovat termejä, joilla et halua mainostesi näkyvän (esim. “ilmainen”, “halpa” kun myyt luksustuotteita).

Avainsanatutkimuksessa tulee ottaa huomioon myös yrityksen lähtötaso avainsanoja valittaessa. Tällä tarkoitan sitä, että AdWords-huutokaupassa laatupisteet (Quality Score) vaikuttavat klikkien hintaan ja mainosten positioon, kun taas hakukoneoptimoinnissa tulee ottaa huomioon nykyiset sijoitukset – huonoa nykyistä sijoitusta voi olla järkevämpää parantaa kuin hyvää sijoitusta volyymista riippumatta. Laatupisteet kullekin avainsanalla näkee Google AdWordsissa ottamalla ko. mittarin käyttöön missä tahansa raportointivälilehdessä, kun taas keskimääräiset sijainnit eri hakutermeillä löytyvät Google Verkkovastaavan työkaluista (Google Webmaster Tools).

Linkit: