Welke frequentie moet worden gebruikt om een ​​semantische kern te compileren? Semantische kern


De semantische kern van de site is wat gebruikers op internet gebruiken om te zoeken naar diensten, producten en andere informatie die deze site biedt. Voor webmasters is dit een actieplan om de bron te promoten. In een ideaal plan De semantische kern van de site wordt één keer gemaakt, voordat de optimalisatie en promotie beginnen.


De semantische kern van een website wordt doorgaans in verschillende fasen samengesteld:

  1. Er worden allerlei woorden (zinnen) geselecteerd die passen bij het onderwerp van de site. In eerste instantie kunt u zich beperken tot 100-200 zoekopdrachten. Om te weten welke zoekopdrachten voor u geschikt zijn, beantwoordt u uzelf de vraag “Waar wil ik mijn site aan wijden?”
  2. Uitbreiding van de semantische kern door middel van associatieve queries
  3. Ongepaste woorden moeten worden geëlimineerd. Hier filtert u de zinnen eruit die u niet gaat gebruiken om uw site te promoten. Er zijn meestal meer dan de helft van dergelijke woorden.
  4. Zeer competitieve zoekopdrachten waarvoor het geen zin heeft om de site te promoten, worden geëlimineerd. Meestal worden drie van de vijf of meer woorden verwijderd.
  5. En het laatste is de juiste verdeling van de lijst zoekopdrachten op de bronnenpagina's. Het wordt aanbevolen om zeer concurrerende verzoeken aan te laten staan Startpagina bronnen, minder concurrerende bronnen moeten op betekenis worden gegroepeerd en op andere pagina's worden geplaatst. Om dit te doen, moet u een document in Excel maken en splitsen trefwoorden per pagina.

Selectie van zoekopdrachten en controlefrequentie

Het eerste dat u hoeft te doen, is zoveel mogelijk verschillende zoekopdrachten over uw onderwerp verzamelen die gebruikers op internet interesseren. Hiervoor zijn twee methoden:

  • Gratis, waaronder: Wordstat Yandex, Slovoeb, ouderwetse manier, tips van Google (External Keyword Tool), analyse van de semantiek van concurrenten en zoektips.
  • Betaalde waaronder Sleutelverzamelaar, Semrush, Pastukhov-databases en enkele andere diensten.

Deze tools zijn geschikt voor verschillende doeleinden (Semrush kan bijvoorbeeld het beste worden gebruikt voor burzhunet). Dit alles kan natuurlijk aan optimizers worden toevertrouwd, maar de mogelijkheid bestaat dat u een onvolledige semantische kern ontvangt.

Veel mensen gebruiken het om te verzamelen sleutelzinnen Pastukhov's database, maar met Key Collector is het veel handiger om verzoeken van diensten te verzamelen.

In de beginfase is het beter om zoekopdrachten in Excel te verzamelen, het ziet er als volgt uit:


Als Google belangrijker is voor uw bron, concentreer u er dan op, maar houd ook rekening met en analyseer trefwoorden van Yandex. Het verzamelen is ook erg belangrijk een lange staart laagfrequente zoekopdrachten, u ontvangt er veel sneller verkeer voor.

Een andere optie die u kunt gebruiken, is sleutelzinnen (woorden) van uw concurrenten achterhalen en deze gebruiken. In deze fase verzamelt u eenvoudigweg zoveel mogelijk sleutelzinnen (woorden) die relevant zijn voor het onderwerp van uw bron, en gaat u vervolgens door naar de volgende fase: filteren.

Analyse van verzoeken, verwijderen van dummies

Deze fase is al eenvoudiger; hier moet je dummywoorden filteren en woorden die geen verband houden met het thema van de site. Je laat bijvoorbeeld lunch bezorgen in Kiev, maar er staan ​​ook andere steden op de lijst.

Hoe lege verzoeken identificeren? Ga naar Yandex Wordstat en voer het trefwoord in:


Je ziet 881 vertoningen per maand, maar om preciezer te zijn:


Nu ontstaat er een heel ander beeld. Dit is misschien niet het beste voorbeeld, maar het belangrijkste is dat je het idee begrijpt. Eten groot aantal trefwoorden waarvoor voldoende verkeer zichtbaar is, hoewel daar in werkelijkheid alles ontbreekt. Daarom moet je zulke zinnen verwijderen.

Als iemand bijvoorbeeld vóór (of na) het typen van het verzoek “lunchbezorging” heeft ingevoerd zoekbalk elke andere zin (één zoeksessie genoemd), dan gaat Yandex ervan uit dat deze zoekzinnen op de een of andere manier met elkaar verbonden zijn. Als een dergelijke relatie tussen meerdere mensen wordt waargenomen, worden dergelijke associatieve zoekopdrachten weergegeven in de rechterkolom van wordstat.


Dergelijke zoekopdrachten worden in het wordstat-venster gesorteerd in aflopende volgorde van de frequentie van hun invoer in combinatie met de hoofdzoekopdracht deze maand (de frequentie van hun gebruik in de Yandex-zoekmachine wordt weergegeven). U moet deze informatie gebruiken om de semantische kern van uw bron uit te breiden.

Verdeling van verzoeken over pagina's

Hierna moet u de zoekwoorden (zinnen) die u heeft verzameld, op de pagina's van uw site verspreiden. Distributie is veel eenvoudiger als u de pagina's zelf nog niet heeft.

Concentreer u vooral op trefwoorden in zoekopdrachten en hun frequentie. Om met concurrentie om te gaan, moet u dit doen: wijd de hoofdpagina aan een of twee zeer concurrerende zoekopdrachten.

Voor matig concurrerende of weinig concurrerende zoekopdrachten kunt u de sectie- en artikelpagina's dienovereenkomstig optimaliseren.

Als er semantische gelijkenis is in de zoekopdrachten, verzamel dan eenvoudigweg dezelfde zinnen en definieer ze in één groep. Wanneer u zoekwoorden maakt om een ​​bron te promoten, gebruik dan altijd niet alleen standaard gereedschap, maar ook een creatieve aanpak.

Het combineren van niet-standaard en klassieke methoden U kunt eenvoudig en snel de semantische kern van een site creëren, de meest optimale promotiestrategie kiezen en veel sneller succes boeken!

Goede middag vrienden.

Je bent de smaak van mijn artikelen vast al vergeten. Het vorige materiaal was behoorlijk lang geleden, hoewel ik beloofde vaker dan normaal artikelen te publiceren.

IN De laatste tijd de hoeveelheid werk is toegenomen. Ik creëerde een nieuw project (een informatiesite), werkte aan de lay-out en het ontwerp ervan, verzamelde een semantische kern en begon materiaal te publiceren.

Vandaag zal een zeer omvangrijke en belangrijk materiaal voor degenen die hun website al meer dan 6-7 maanden (in sommige onderwerpen meer dan 1 jaar) runnen een groot aantal van artikelen (gemiddeld 100) en heeft nog niet het minimumniveau van 500-1000 bezoeken per dag bereikt. De aantallen zijn tot een minimum beperkt.

Het belang van de semantische kern

In sommige gevallen wordt een slechte websitegroei veroorzaakt door onjuiste technische optimalisatie van de website. Meer gevallen waarin de inhoud van slechte kwaliteit is. Maar ook meer gevallen Als teksten helemaal niet op basis van verzoeken worden geschreven, heeft niemand de materialen nodig. Maar er is ook een heel groot deel van de mensen die een website maken, alles correct optimaliseren, schrijven kwalitatieve teksten, maar na vijf tot zes maanden begint de site net de eerste twintig tot dertig bezoekers uit de zoekresultaten te trekken. In een langzaam tempo zijn er na een jaar al 100-200 bezoekers en is het inkomen nul.

En hoewel alles correct is gedaan, zijn er geen fouten en zijn de teksten soms zelfs vele malen hoger van kwaliteit dan die van concurrenten, maar op de een of andere manier werkt het niet, voor het leven van mij. We beginnen dit probleem toe te schrijven aan het gebrek aan links. Uiteraard geven links een boost aan de ontwikkeling, maar dit is niet het allerbelangrijkste. En zonder hen kunt u in 3-4 maanden 1000 bezoeken aan de site krijgen.

Velen zullen zeggen dat dit allemaal ijdel gepraat is en dat je zulke cijfers niet zo snel zult krijgen. Maar als we kijken, worden dergelijke cijfers niet precies op blogs bereikt. Informatiesites (geen blogs), gemaakt voor snelle inkomsten en rendement op investeringen, na ongeveer 3-4 maanden is het heel goed mogelijk om dagelijks verkeer van 1000 mensen te bereiken, en na een jaar - 5000-10000. De cijfers zijn uiteraard afhankelijk van het concurrentievermogen van de niche, het volume en het volume van de site zelf voor de opgegeven periode. Maar als je een niche neemt met vrij weinig concurrentie en een volume van 300-500 materialen, dan zijn dergelijke cijfers binnen het opgegeven tijdsbestek redelijk haalbaar.

Waarom bereiken blogs precies niet zulke snelle resultaten? De belangrijkste reden is het ontbreken van een semantische kern. Hierdoor worden artikelen geschreven voor slechts één specifiek verzoek en bijna altijd voor een zeer competitief verzoek, waardoor de pagina niet in korte tijd de TOP bereikt.

Op blogs worden artikelen in de regel geschreven in de gelijkenis van concurrenten. We hebben 2 leesbare blogs. We zien dat ze behoorlijk verkeer hebben, we beginnen hun sitemap te analyseren en teksten te publiceren voor dezelfde verzoeken, die al honderden keren zijn herschreven en zeer concurrerend zijn. Als gevolg hiervan krijgen we inhoud van zeer hoge kwaliteit op de site, maar deze presteert slecht in zoekopdrachten, omdat... vereist veel leeftijd. We krabben ons op het hoofd, waarom is mijn content de beste, maar haalt het de TOP niet?

Daarom besloot ik gedetailleerd materiaal te schrijven over de semantische kern van de site, zodat je een lijst met zoekopdrachten kunt verzamelen en, wat heel belangrijk is, teksten kunt schrijven voor zulke groepen trefwoorden die, zonder links te kopen en in slechts 2- 3 maanden, de TOP bereikt (uiteraard als de inhoud van hoge kwaliteit is).

Het materiaal zal voor de meesten moeilijk zijn als je dit probleem nog nooit op de juiste manier bent tegengekomen. Maar het belangrijkste hier is om te beginnen. Zodra je begint met acteren, wordt alles meteen duidelijk.

Laat mij een heel belangrijke opmerking maken. Het betreft degenen die niet bereid zijn om met hun zuurverdiende munten in kwaliteit te investeren en altijd proberen vrije mazen in de wet te vinden. Je kunt niet gratis semantiek van hoge kwaliteit verzamelen, en dat is ook zo bekend feit. Daarom beschrijf ik in dit artikel het proces van het verzamelen van semantiek maximale kwaliteit. Er zijn geen gratis methoden of mazen in dit bericht! Er komt zeker een nieuwe post waarin ik je zal vertellen over gratis en andere tools waarmee je semantiek kunt verzamelen, maar niet volledig en zonder de juiste kwaliteit. Daarom, als u nog niet klaar bent om te investeren in de basisprincipes van uw website, dan dit materiaal je hebt niets nodig!

Ondanks dat vrijwel iedere blogger hier wel een artikel over schrijft. kernel, kan ik met vertrouwen zeggen dat er op internet geen normale gratis tutorials over dit onderwerp zijn. En als dat zo is, dan is er niemand die een volledig beeld kan geven van wat de output zou moeten zijn.

Meestal eindigt de situatie met wat newbie-schrijfmateriaal en praten over het verzamelen van de semantische kern, evenals het gebruik van een dienst voor het verzamelen van zoekopdrachtstatistieken van Yandex (wordstat.yandex.ru). Uiteindelijk moet u naar deze site gaan, vragen over uw onderwerp invoeren, de service zal een lijst met zinnen weergeven die in uw ingevoerde sleutel zijn opgenomen - dit is de hele techniek.

Maar in feite is dit niet hoe de semantische kern wordt samengesteld. In het hierboven beschreven geval heb je eenvoudigweg geen semantische kern. U ontvangt enkele niet-verbonden verzoeken en deze gaan allemaal over hetzelfde. Laten we bijvoorbeeld mijn niche ‘website bouwen’ nemen.

Wat zijn de belangrijkste vragen die zonder aarzeling kunnen worden benoemd? Hier zijn er maar een paar:

  • Hoe u een website maakt;
  • Websitepromotie;
  • Website creatie;
  • Websitepromotie, enz.

De verzoeken gaan over hetzelfde. Hun betekenis komt neer op slechts twee concepten: creatie en promotie van een website.

Na zo'n controle wordstat-service zal veel zoekopdrachten tonen die zijn opgenomen in de hoofdzoekopdrachten en ze zullen ook over hetzelfde gaan. Het enige verschil zit hem in de gewijzigde woordvormen (het toevoegen van enkele woorden en het wijzigen van de rangschikking van woorden in de zoekopdracht met veranderende eindes).

Zeker, Een bepaalde hoeveelheid van Het is mogelijk om teksten te schrijven, omdat verzoeken zelfs in deze versie verschillend kunnen zijn. Bijvoorbeeld:

  • Hoe u een WordPress-website maakt;
  • Hoe u een Joomla-website maakt;
  • Hoe u een website maakt op gratis hosting;
  • Hoe u een website gratis kunt promoten;
  • Hoe u een servicewebsite kunt promoten, enz.

Uiteraard kan voor elke aanvraag apart materiaal worden toegewezen. Maar een dergelijke compilatie van de semantische kern van de site zal niet succesvol zijn, omdat er zal geen volledige openbaarmaking van informatie op de site in de geselecteerde niche plaatsvinden. Alle inhoud gaat over slechts 2 onderwerpen.

Soms beschrijven beginnende bloggers het proces van het samenstellen van een semantische kern als het analyseren van individuele zoekopdrachten in de Yandex Wordstat-queryanalyseservice. We voeren een afzonderlijke zoekopdracht in die geen betrekking heeft op het onderwerp als geheel, maar alleen op een specifiek artikel (bijvoorbeeld hoe een artikel te optimaliseren), we krijgen de frequentie ervoor, en hier is het - de semantische kern is samengesteld . Het blijkt dat we op deze manier mentaal alle mogelijke onderwerpen van artikelen moeten identificeren en analyseren.

Beide bovenstaande opties zijn onjuist, omdat... zorg niet voor een volledige semantische kern en dwing u voortdurend terug te keren naar de compilatie ervan (tweede optie). Bovendien heeft u de site-ontwikkelingsvector niet in handen en kunt u in de eerste plaats geen materiaal publiceren, dat als een van de eersten zou moeten worden gepubliceerd.

Wat betreft de eerste optie: toen ik ooit cursussen over websitepromotie kocht, zag ik voortdurend precies deze uitleg voor het verzamelen van de kernvragen voor een website (voer de hoofdsleutel in en kopieer alle vragen van de service naar Tekstdocument). Als gevolg daarvan werd ik voortdurend gekweld door de vraag: "Wat te doen met dergelijke verzoeken?" Het volgende kwam in me op:

  • Schrijf veel artikelen over hetzelfde, maar gebruik verschillende trefwoorden;
  • Voer al deze sleutels in het beschrijvingsveld voor elk materiaal in;
  • Voer alle sleutels van de familie in. kernels in het algemene beschrijvingsveld voor de gehele bron.

Geen van deze aannames was correct, en in het algemeen was dat ook niet het geval met de semantische kern van de site zelf.

In de definitieve versie van het verzamelen van de semantische kern zouden we niet alleen een lijst met zoekopdrachten van bijvoorbeeld 10.000 moeten ontvangen, maar ook een lijst met groepen zoekopdrachten bij de hand hebben, die elk voor een afzonderlijk artikel worden gebruikt.

Een groep kan 1 tot 20-30 verzoeken bevatten (soms 50 of zelfs meer). In dit geval gebruiken we al deze zoekopdrachten in de tekst en zal de pagina in de toekomst elke dag verkeer naar alle zoekopdrachten genereren als het 1-3 posities in de zoekopdracht bereikt. Bovendien moet elke groep zijn eigen competitie hebben om te weten of het zinvol is om er nu tekst over te publiceren of niet. Als er veel concurrentie is, kunnen we het effect van de pagina pas na 1-1,5 jaar verwachten en met regelmatig werk om deze te promoten (links, linken, enz.). Daarom is het beter om je als laatste redmiddel op dergelijke teksten te concentreren, zelfs als ze het meeste verkeer genereren.

Antwoorden op mogelijke vragen

Vraag nr. 1. Het is duidelijk dat de uitvoer een groep zoekopdrachten is voor het schrijven van tekst, en niet slechts één sleutel. Zouden in dit geval de sleutels niet op elkaar lijken en waarom zou u niet voor elk verzoek een aparte tekst schrijven?

Vraag nr. 2. Het is bekend dat elke pagina moet worden afgestemd op slechts één trefwoord, maar hier krijgen we een hele groep en, in sommige gevallen, met een vrij grote inhoud aan zoekopdrachten. Hoe vindt in dit geval de optimalisatie van de tekst zelf plaats? Als er bijvoorbeeld 20 sleutels zijn, ziet het gebruik van elke sleutel minstens één keer in de tekst (zelfs van groot formaat) er al uit als tekst voor. een zoekmachine, en niet voor mensen.

Antwoord. Als we het voorbeeld van de verzoeken uit de vorige vraag nemen, dan is het eerste wat we moeten doen om het materiaal aan te scherpen precies het meest voorkomende (1e) verzoek, omdat we het meest geïnteresseerd zijn in het bereiken van de topposities. Wij beschouwen dit zoekwoord als het belangrijkste zoekwoord in deze groep.

Optimalisatie voor de belangrijkste sleutelzin gebeurt op dezelfde manier als bij het schrijven van tekst voor slechts één sleutel (toets in titel titel, met behulp van het vereiste aantal tekens in de tekst en het vereiste aantal keren de sleutel zelf, indien nodig).

Wat andere sleutels betreft, voeren we deze ook in, maar niet blindelings, maar op basis van een analyse van concurrenten, die het gemiddelde aantal van deze sleutels in teksten uit de TOP kan laten zien. Het kan gebeuren dat u voor de meeste zoekwoorden nulwaarden krijgt, wat betekent dat ze niet precies in de exacte plaats hoeven te worden gebruikt.

De tekst wordt dus geschreven met alleen de hoofdquery rechtstreeks in de tekst. Uiteraard kunnen ook andere zoekopdrachten worden gebruikt als uit de analyse van concurrenten blijkt dat ze aanwezig zijn in de teksten uit de TOP. Maar dit zijn niet 20 trefwoorden in de tekst in hun exacte voorkomen.

Meest recentelijk heb ik materiaal gepubliceerd voor een groep van 11 sleutels. Het lijkt erop dat er veel zoekopdrachten zijn, maar in de onderstaande schermafbeelding kunt u zien dat alleen de meest voorkomende sleutel exact voorkomt: 6 keer. De overige sleutelzinnen komen niet exact voor, maar ook verdunde (niet zichtbaar in de schermafbeelding, maar dit wordt getoond tijdens de analyse van concurrenten). Die. ze worden helemaal niet gebruikt.

(1e kolom – frequentie, 2e – concurrentievermogen, 3e – aantal vertoningen)

In de meeste gevallen zal er een vergelijkbare situatie zijn, waarbij slechts een paar sleutels gebruikt hoeven te worden in een exacte gebeurtenis, en de rest óf sterk verdund zal zijn, óf helemaal niet gebruikt zal worden, zelfs in een verdunde gebeurtenis. Het artikel blijkt leesbaar en er zijn geen aanwijzingen om alleen op zoeken te focussen.

Vraag nr. 3. Volgt uit het antwoord op vraag nr. 2. Als de overige sleutels in de groep helemaal niet hoeven te worden gebruikt, hoe zullen ze dan verkeer ontvangen?

Antwoord. Feit is dat door de aanwezigheid van bepaalde woorden in de tekst een zoekmachine kan bepalen waar de tekst over gaat. Omdat trefwoorden bepaalde afzonderlijke woorden bevatten die alleen betrekking hebben op deze sleutel, moeten ze op basis van dezelfde concurrentieanalyse een bepaald aantal keren in de tekst worden gebruikt.

De sleutel wordt dus niet gebruikt bij de exacte invoer, maar de woorden uit de sleutel zullen individueel aanwezig zijn in de tekst en zullen ook deelnemen aan de rangschikking. Hierdoor wordt bij deze zoekopdrachten de tekst ook gevonden in de zoekopdracht. Maar in dit geval moet idealiter het aantal afzonderlijke woorden in acht worden genomen. Concurrenten zullen helpen.

Ik heb de belangrijkste vragen beantwoord die je in verdoving kunnen brengen. In een van de volgende materialen zal ik meer schrijven over het optimaliseren van tekst voor groepen verzoeken. Er zal informatie zijn over het analyseren van concurrenten en over het schrijven van de tekst zelf voor een groep sleutels.

Als u nog vragen heeft, stel dan uw opmerkingen. Ik zal alles beantwoorden.

Laten we nu beginnen met het samenstellen van de semantische kern van de site.

Erg belangrijk. Ik zal het hele proces niet kunnen beschrijven zoals het in dit artikel daadwerkelijk is (ik zal een heel webinar van 2-3 uur moeten doen of een minicursus), dus ik zal proberen het kort te houden, maar tegelijkertijd informatief en zoveel mogelijk punten behandelend. Ik zal bijvoorbeeld niet in detail de configuratie van de KeyCollector-software beschrijven. Alles zal worden ingekort, maar wel zo duidelijk mogelijk.

Laten we nu elk punt doornemen. Laten we beginnen. Ten eerste: voorbereiding.

Wat is er nodig om een ​​semantische kern te verzamelen?


Voordat we de semantische kern van de site creëren, zullen we een sleutelverzamelaar opzetten om correct statistieken te verzamelen en zoekopdrachten te ontleden.

KeyCollector instellen

U kunt de instellingen invoeren door op het pictogram in te klikken topmenu software

Ten eerste wat betreft het parseren.

Ik wil graag de instellingen “Aantal streams” en “Gebruik primair IP-adres” noteren. Het aantal draden om één kleine kern samen te stellen vereist geen groot aantal. 2-4 draden zijn voldoende. Hoe meer threads, hoe meer proxyservers er nodig zijn. Idealiter 1 proxy per 1 thread. Maar je kunt ook 1 proxy hebben voor 2 streams (zo heb ik het geparseerd).

Wat betreft de tweede instelling: bij parseren in 1-2 threads kunt u uw hoofd-IP-adres gebruiken. Maar alleen als het dynamisch is, want... als een statisch IP-adres wordt verboden, verliest u de toegang daartoe zoekmachine Yandex. Maar toch wordt altijd voorrang gegeven aan het gebruik van een proxyserver, omdat het beter is om jezelf te beschermen.

Op het tabblad Yandex.Direct-parseerinstellingen is het belangrijk om uw Yandex-accounts toe te voegen. Hoe meer er zijn, hoe beter. Je kunt ze zelf registreren of kopen, zoals ik eerder schreef. Ik heb ze gekocht omdat het voor mij gemakkelijker is om 100 roebel uit te geven voor 30 accounts.

Toevoegen kan vanuit de buffer door de lijst met accounts naar te kopiëren in het gewenste formaat, of laden vanuit bestand.

Accounts moeten worden opgegeven in het formaat “login:wachtwoord”, zonder de host zelf op te geven bij het inloggen (zonder @yandex.ru). Bijvoorbeeld “artem_konovalov:jk8ergvgkhtf”.

Als we meerdere proxyservers gebruiken, is het ook beter om deze aan specifieke accounts toe te wijzen. Het zal verdacht zijn als het verzoek voor het eerst afkomstig is van één server en van één account, en wanneer volgende verzoek van hetzelfde Yandex-account is de proxyserver anders.

Naast de accounts staat een kolom “IP proxy”. Naast elk account voeren we een specifieke proxy in. Als er 20 accounts en 2 proxyservers zijn, zijn er 10 accounts bij de ene proxy en 10 bij de andere. Als er 30 accounts zijn, dan 15 bij de ene server en 15 bij een andere. Ik denk dat je de logica begrijpt.

Als we slechts één proxy gebruiken, heeft het geen zin deze aan elk account toe te voegen.

Ik heb iets eerder gesproken over het aantal threads en het gebruik van het hoofd-IP-adres.

Het volgende tabblad is “Netwerk”, waar u proxyservers moet invoeren die voor parsering zullen worden gebruikt.

U moet helemaal onderaan het tabblad een proxy invoeren. U kunt ze in het gewenste formaat uit de buffer laden. Ik heb het op een eenvoudige manier toegevoegd. In elke kolom van de regel heb ik informatie ingevoerd over de server die u krijgt wanneer u deze koopt.

Vervolgens configureren we de exportparameters. Omdat we alle verzoeken met hun frequenties in een bestand op de computer moeten ontvangen, moeten we enkele exportparameters instellen zodat er niets overbodigs in de tabel staat.

Helemaal onderaan het tabblad (rood gemarkeerd) moet u de gegevens selecteren die u naar de tabel wilt exporteren:

  • Zin;
  • Bron;
  • Frequentie "!" ;
  • Beste vorm zinnen (je hoeft ze niet te plaatsen).

Het enige dat overblijft is het configureren van de anti-captcha-oplossing. Het tabblad heet “Antikapcha”. Selecteer de service die u gebruikt en voer de speciale sleutel in die zich in het serviceaccount bevindt.

Een speciale sleutel voor het werken met de dienst wordt na registratie in een brief verstrekt, maar deze kan ook uit het account zelf worden gehaald in het item "Instellingen - accountinstellingen".

Hiermee zijn de KeyCollector-instellingen voltooid. Vergeet na het aanbrengen van de wijzigingen niet de instellingen op te slaan door op te klikken grote knop'Wijzigingen opslaan' onderaan.

Wanneer alles klaar is en we klaar zijn om te parseren, kunnen we beginnen met het overwegen van de fasen van het verzamelen van de semantische kern, en vervolgens elke fase in volgorde doorlopen.

Stadia van het verzamelen van de semantische kern

Het is onmogelijk om een ​​hoogwaardige en volledige semantische kern te verkrijgen met alleen basisquery's. U moet ook de verzoeken en materialen van concurrenten analyseren. Daarom bestaat het hele proces van het samenstellen van de kern uit verschillende fasen, die op hun beurt weer verder zijn onderverdeeld in subfasen.

  1. De basis;
  2. Concurrentieanalyse;
  3. Verlenging klaar lijst van fase 1-2;
  4. Verzameling van de beste woordvormen voor zoekopdrachten uit fase 1-3.

Fase 1 – fundering

Wanneer je in dit stadium de kernel verzamelt, moet je:

  • Genereer een hoofdlijst met verzoeken in de niche;
  • Uitbreiding van deze vragen;
  • Schoonmaak.

Fase 2 – concurrenten

In principe levert fase 1 al een bepaald volume van de kern, maar niet volledig, omdat het kan zijn dat we iets missen. En concurrenten in onze niche zullen ons helpen ontbrekende gaten te vinden. Hier zijn de stappen die u moet volgen:

  • Het verzamelen van concurrenten op basis van verzoeken uit fase 1;
  • Het parseren van verzoeken van concurrenten (sitemapanalyse, statistieken openen liveinternet, analyse van domeinen en concurrenten in SpyWords);
  • Schoonmaak.

Fase 3 – uitbreiding

Veel mensen stoppen al in de eerste fase. Iemand bereikt de 2e, maar er is nog steeds een rij aanvullende verzoeken, die ook de semantische kern kan aanvullen.

  • We combineren aanvragen uit fase 1-2;
  • We laten 10% van de meest voorkomende woorden uit de hele lijst staan, die minimaal 2 woorden bevatten. Het is belangrijk dat deze 10% niet meer dan 100 zinnen zijn, omdat een groot aantal dwingt je om diep in het proces van verzamelen, opruimen en groeperen te duiken. We moeten de kernel assembleren in een snelheid/kwaliteit verhouding (minimaal kwaliteitsverlies bij maximale snelheid);
  • Deze queries breiden wij uit met de Rookee service (alles staat in KeyCollector);
  • Schoonmaak.

Fase 4 – het verzamelen van de beste woordvormen

De Rookee-service kan voor de meeste zoekopdrachten de beste (juiste) woordvorm bepalen. Dit moet ook gebruikt worden. Het doel is niet om het juiste woord te bepalen, maar om nog meer zoekopdrachten en hun vormen te vinden. Op deze manier kunt u nog een reeks zoekopdrachten ophalen en deze gebruiken bij het schrijven van teksten.

  • Het combineren van verzoeken uit de eerste 3 fases;
  • Verzameling van de beste woordvormen die daarop zijn gebaseerd;
  • Het toevoegen van de beste woordvormen aan de lijst voor alle zoekopdrachten gecombineerd van fase 1-3;
  • Schoonmaak;
  • Exporteer de voltooide lijst naar een bestand.

Zoals je kunt zien, is alles niet zo snel, en vooral niet zo eenvoudig. Ik schetste alleen een normaal plan voor het compileren van een kernel om een ​​hoogwaardige lijst met sleutels aan de uitvoer te krijgen en niets of zo weinig mogelijk te verliezen.

Nu stel ik voor om elk punt afzonderlijk door te nemen en alles van A tot Z te bestuderen. Er is veel informatie, maar het is de moeite waard als je een echt hoogwaardige semantische kern van de site nodig hebt.

Fase 1 – fundering

Eerst maken we een lijst met eenvoudige nichequery's. Meestal zijn dit zinnen van één tot drie woorden die een specifiek nicheprobleem beschrijven. Als voorbeeld stel ik voor om de niche ‘Geneeskunde’ te nemen, en meer specifiek de sub-niche van hartziekten.

Welke voornaamste verzoeken kunnen we identificeren? Natuurlijk zal ik niet alles schrijven, maar ik zal er een paar geven.

  • Hartziekten
  • Hartaanval;
  • Cardiale ischemie;
  • Aritmie;
  • Hypertensie;
  • Hartziekte;
  • Angina, enz.

In eenvoudige woorden: dit zijn veel voorkomende namen voor ziekten. Er kunnen nogal wat van dergelijke verzoeken zijn. Hoe meer je kunt doen, hoe beter. Maar je moet het niet invoeren voor de show. Het heeft geen zin om meer specifieke zinnen uit de algemene zinnen te schrijven, bijvoorbeeld:

  • Aritmie;
  • Oorzaken van aritmie;
  • Behandeling van aritmie;
  • Symptomen van aritmie.

Het belangrijkste is alleen de eerste zin. Het heeft geen zin om de rest aan te geven, want... ze verschijnen in de lijst tijdens het uitbreiden met behulp van parseren vanuit de linkerkolom van Yandex Wordstat.

Om naar veelgebruikte zinnen te zoeken, kunt u zowel sites van concurrenten (sitemap, sectienamen...) als de ervaring van een specialist in deze niche gebruiken.


Het parseren zal enige tijd duren, afhankelijk van het aantal verzoeken in de niche. Alle queries worden standaard geplaatst in nieuwe groep met de naam “Nieuwe groep 1”, als ik het goed heb. Meestal hernoem ik groepen om te begrijpen wie waarvoor verantwoordelijk is. Het groepsbeheermenu bevindt zich rechts van de verzoekenlijst.

De hernoemingsfunctie is in contextmenu wanneer u op de rechtermuisknop klikt. Dit menu is ook nodig om andere groepen aan te maken in de tweede, derde en vierde fase.

Daarom kunt u onmiddellijk nog 3 groepen toevoegen door op het eerste “+”-pictogram te klikken, zodat de groep onmiddellijk na de vorige in de lijst wordt aangemaakt. Het is niet nodig om er nog iets aan toe te voegen. Laat ze gewoon zijn.

Ik heb de groepen als volgt genoemd:

  • Concurrenten - het is duidelijk dat deze groep een lijst met verzoeken bevat die ik van concurrenten heb verzameld;
  • 1-2 is een gecombineerde lijst met zoekopdrachten uit de 1e (hoofdlijst met zoekopdrachten) en 2e (query's van concurrenten) fasen, om slechts 10% van de zoekopdrachten uit ten minste 2 woorden te laten bestaan ​​en extensies daarvan te verzamelen;
  • 1-3 – gecombineerde lijst met verzoeken uit de eerste, tweede en derde (verlengings)fase. We verzamelen ook de beste woordvormen in deze groep, hoewel het slimmer zou zijn om ze in een nieuwe groep te verzamelen (bijvoorbeeld de beste woordvormen) en ze vervolgens, na het opruimen, naar groep 1-3 te verplaatsen.

Nadat u het parseren van yandex.wordstat hebt voltooid, ontvangt u een grote lijst met sleutelzinnen, die in de regel (als de niche klein is) binnen enkele duizenden zal liggen. Een groot deel hiervan bestaat uit rommel en nepverzoeken en zal moeten worden opgeruimd. Sommige dingen worden automatisch uitgezocht met behulp van de KeyCollector-functionaliteit, terwijl andere met de hand moeten worden geschept en een tijdje moeten zitten.

Wanneer alle verzoeken zijn verzameld, moet u de exacte frequenties ervan verzamelen. De totale frequentie wordt verzameld tijdens het parseren, maar de exacte frequentie moet afzonderlijk worden verzameld.

Om statistieken over het aantal vertoningen te verzamelen, kunt u twee functies gebruiken:

  1. Met de hulp van Yandex Direct worden statistieken snel in batches verzameld, maar er zijn beperkingen (zinnen van meer dan 7 woorden werken bijvoorbeeld niet, zelfs niet met symbolen);
  2. Analyse gebruiken in Yandex Wordstat - heel langzaam worden zinnen één voor één geanalyseerd, maar er zijn geen beperkingen.

Verzamel eerst statistieken met behulp van Direct, zodat dit zo snel mogelijk is, en voor de zinnen waarvoor het niet mogelijk was om statistieken te bepalen met Direct, gebruiken we Wordstat. In de regel zullen er weinig van dergelijke zinnen over zijn en zullen ze snel worden verzameld.

Vertoningsstatistieken worden verzameld met behulp van Yandex.Direct door op de juiste knop te klikken en de nodige parameters toe te wijzen.

Nadat u op de knop 'Gegevens ophalen' heeft geklikt, kan er een waarschuwing verschijnen dat Yandex Direct niet is ingeschakeld in de instellingen. U moet akkoord gaan met het activeren van parseren met Direct om frequentiestatistieken te kunnen bepalen.

In de kolom “Frequentie” ziet u meteen hoe de pakketten werken! » Er worden nauwkeurige impressie-indicatoren voor elke frase opgenomen.

Het proces van het voltooien van een taak is te zien op het tabblad “Statistieken” helemaal onderaan het programma. Wanneer de taak is voltooid, ziet u een voltooiingsmelding op het tabblad Gebeurtenislogboek en verdwijnt de voortgangsbalk op het tabblad Statistieken.

Nadat we het aantal vertoningen hebben verzameld met Yandex Direct, controleren we of er zinnen zijn waarvoor de frequentie niet is verzameld. Om dit te doen, sorteert u de kolom 'Frequentie!' (klik erop) zodat de kleinste of grootste waarden bovenaan verschijnen.

Als alle nullen bovenaan staan, worden alle frequenties verzameld. Als ze dat doen lege cellen, dan waren de indrukken voor deze zinnen onbeslist. Hetzelfde geldt voor het sorteren op kill, alleen dan moet je naar het resultaat helemaal onderaan de lijst met zoekopdrachten kijken.

U kunt ook beginnen met verzamelen met Yandex Wordstat door op het pictogram te klikken en de vereiste frequentieparameter te selecteren.


Nadat u het frequentietype heeft geselecteerd, ziet u hoe de lege cellen geleidelijk beginnen te vullen.

Belangrijk: wees niet ongerust als er na het einde van de procedure lege cellen achterblijven. Feit is dat ze leeg zijn als hun exacte frequentie lager is dan 30. Dit stellen we in de parseerinstellingen in Keycollector in. Deze zinnen kunnen veilig worden gemarkeerd (evenals reguliere bestanden V Windows Explorer) en verwijderen. Zinnen zullen opvallen blauw, klik met de rechtermuisknop en selecteer 'Geselecteerde regels verwijderen'.

Wanneer alle statistieken zijn verzameld, kunt u beginnen met opschonen, wat erg belangrijk is om te doen in elke fase van het verzamelen van de semantische kern.

De belangrijkste taak is het verwijderen van zinnen die geen verband houden met het onderwerp, het verwijderen van zinnen met stopwoorden en het wegwerken van zoekopdrachten met een te lage frequentie.

Dit laatste hoeft idealiter niet te gebeuren, maar als we bezig zijn met het samenstellen hiervan. kernen om zinnen te gebruiken, zelfs met een minimale frequentie van 5 vertoningen per maand, zal dit de kern met 50-60 procent (of misschien zelfs 80%) vergroten en ons diep laten graven. We moeten krijgen maximum snelheid met minimale verliezen.

Als we de meest complete semantische kern van de site willen krijgen, maar deze tegelijkertijd ongeveer een maand willen verzamelen (we hebben helemaal geen ervaring), neem dan frequenties van 4-5 maandelijkse vertoningen. Maar het is beter (als je een beginner bent) om verzoeken achter te laten die minimaal 30 vertoningen per maand hebben. Ja, we zullen een beetje verliezen, maar dit is de prijs voor maximale snelheid. En naarmate het project groeit, zal het mogelijk zijn om deze verzoeken opnieuw te ontvangen en ze te gebruiken om nieuw materiaal te schrijven. En dit is alleen op voorwaarde dat dit alles. de kern is al uitgeschreven en er zijn geen onderwerpen voor artikelen.

Met dezelfde sleutelverzamelaar kunt u verzoeken volledig automatisch filteren op het aantal vertoningen en andere parameters. In eerste instantie raad ik aan om precies dit te doen en geen onzinzinnen en zinnetjes met stopwoorden te verwijderen, omdat... het zal veel gemakkelijker zijn om dit te doen als het totale kernvolume in dit stadium minimaal wordt. Wat is gemakkelijker, 10.000 zinnen of 2.000 zinnen opscheppen?

Filters zijn toegankelijk via het tabblad Gegevens door op de knop Filters bewerken te klikken.

Ik raad aan om eerst alle zoekopdrachten met een frequentie van minder dan 30 weer te geven en ze naar een nieuwe groep te verplaatsen om ze niet te verwijderen, omdat ze in de toekomst nuttig kunnen zijn. Als we simpelweg een filter toepassen om zinnen weer te geven met een frequentie van meer dan 30, dan zullen we na de volgende lancering van KeyCollector hetzelfde filter opnieuw moeten toepassen, omdat alles opnieuw is ingesteld. Natuurlijk kunt u het filter opslaan, maar u zult het nog steeds moeten toepassen en voortdurend moeten terugkeren naar het tabblad "Gegevens".

Om onszelf van deze acties te behoeden, voegen we een voorwaarde toe in de filtereditor, zodat alleen zinnen met een frequentie van minder dan 30 worden weergegeven.




In de toekomst kunt u een filter selecteren door op de pijl naast het diskettepictogram te klikken.

Na het toepassen van het filter blijven dus alleen zinnen met een frequentie van minder dan 30 in de lijst met zoekopdrachten staan, d.w.z. 29 en lager. Bovendien wordt de gefilterde kolom in kleur gemarkeerd. In onderstaand voorbeeld zie je alleen een frequentie van 30, omdat... Ik laat dit allemaal zien aan de hand van het voorbeeld van een kernel die al klaar is en alles is opgeschoond. Besteed hier geen aandacht aan. Alles zou moeten zijn zoals ik in de tekst beschrijf.

Om over te dragen, moet u alle zinnen in de lijst selecteren. Klik op de eerste zin, scroll naar de onderkant van de lijst, houd de “Shift”-toets ingedrukt en klik eenmaal op de laatste zin. Op deze manier worden alle zinnen gemarkeerd en gemarkeerd met een blauwe achtergrond.

zal verschijnen klein raam, waar u precies de beweging moet selecteren.

Nu kunt u het filter uit de frequentiekolom verwijderen, zodat alleen zoekopdrachten met een frequentie van 30 en hoger overblijven.


We hebben een bepaalde fase van automatische reiniging voltooid. Vervolgens zul je moeten sleutelen aan het verwijderen van vuilniszinnen.

Ten eerste stel ik voor stopwoorden te specificeren om alle zinsdelen die deze bevatten te verwijderen. In het ideale geval gebeurt dit natuurlijk onmiddellijk tijdens het parseren, zodat ze niet op de lijst terechtkomen, maar dit is niet kritisch, aangezien het wissen van stopwoorden plaatsvindt in automatische modus met behulp van Keycollector.

De grootste moeilijkheid is het samenstellen van een lijst met stopwoorden, omdat... Per onderwerp zijn ze verschillend. Daarom is het niet zo belangrijk of we stopwoorden in het begin of nu hebben opgeruimd, omdat we alle stopwoorden moeten vinden, en dit is een moeizame taak en niet zo snel.

Op internet kunt u algemene thematische lijsten vinden, waarin de meest voorkomende woorden voorkomen, zoals “abstract, gratis, download, p...rn, online, afbeelding, enz.”

Ten eerste stel ik voor een algemene onderwerpenlijst te gebruiken om het aantal zinnen verder te verminderen. Klik op het tabblad ‘Gegevensverzameling’ op de knop ‘Woorden stoppen’ en voeg ze toe aan een lijst.

Klik in hetzelfde venster op de knop “Markeer zinnen in de tabel” om alle zinnen te markeren die de ingevoerde stopwoorden bevatten. Maar het is noodzakelijk dat de volledige lijst met zinnen in de groep is uitgeschakeld, zodat na het klikken op de knop alleen zinnen met stopwoorden gemarkeerd blijven. Het is heel gemakkelijk om alle zinnen te demarkeren.


Als alleen gemarkeerde zinnen met stopwoorden overblijven, verwijderen we ze of verplaatsen we ze naar een nieuwe groep. Ik heb het voor de eerste keer verwijderd, maar het is nog steeds een prioriteit om een ​​groep 'Met stopwoorden' te maken en alle onnodige zinnen ernaartoe te verplaatsen.

Na het schoonmaken waren er nog minder zinnen. Maar dat is nog niet alles, want... wij hebben nog iets gemist. Zowel de stopwoorden zelf als zinnen die geen verband houden met de focus van onze site. Het kan gaan om commerciële verzoeken waarvoor geen teksten geschreven kunnen worden, of er kunnen wel teksten geschreven worden, maar deze voldoen niet aan de verwachtingen van de gebruiker.

Voorbeelden van dergelijke zoekopdrachten kunnen verband houden met het woord ‘kopen’. Wanneer een gebruiker naar iets met dit woord zoekt, wil hij zeker al naar de site gaan waar hij het verkoopt. We zullen tekst voor zo'n zin schrijven, maar de bezoeker heeft deze niet nodig. Daarom hebben we dergelijke verzoeken niet nodig. We zoeken ze handmatig.

We scrollen langzaam en zorgvuldig door de resterende lijst met zoekopdrachten tot het einde, op zoek naar dergelijke zinnen en ontdekken nieuwe stopwoorden. Als u een woord tegenkomt dat vaak wordt gebruikt, voegt u het eenvoudigweg toe aan de bestaande lijst met stopwoorden en klikt u op de knop “Markeer zinnen in de tabel”. Aan het einde van de lijst, onderweg handmatige controle We hebben alle onnodige zoekopdrachten gemarkeerd, de gemarkeerde zinnen verwijderd en de eerste fase van het samenstellen van de semantische kern is voorbij.

We hebben een bepaalde semantische kern verkregen. Het is nog niet helemaal compleet, maar je kunt er al het maximale deel van de teksten mee schrijven.

Het enige dat overblijft is om er een klein deel van de verzoeken aan toe te voegen die we mogelijk gemist hebben. De volgende stappen helpen hierbij.

Stage 2 concurrenten

Helemaal aan het begin hebben we een lijst samengesteld met veelvoorkomende zinnen die verband houden met de niche. In ons geval waren dit:

  • Hartziekten
  • Hartaanval;
  • Cardiale ischemie;
  • Aritmie;
  • Hypertensie;
  • Hartziekte;
  • Angina, enz.

Ze behoren allemaal specifiek tot de niche ‘Hartziekten’. Met behulp van deze zinnen moet u zoeken naar sites van concurrenten over dit onderwerp.

We voeren elk van de zinnen in en zoeken naar concurrenten. Het is belangrijk dat dit geen algemene thematische sites zijn (in ons geval medische sites met een algemene focus, d.w.z. over alle ziekten). Wat nodig is, zijn nicheprojecten. In ons geval - alleen over het hart. Nou ja, misschien ook over de schepen, want... het hart is verbonden met het vasculaire systeem. Ik denk dat je het idee begrijpt.

Als onze niche 'Recepten voor salades met vlees' is, dan zijn dit in de toekomst de enige sites waar we naar moeten zoeken. Als ze er niet zijn, probeer dan sites te vinden die alleen over recepten gaan, en niet in het algemeen over koken, waar alles over alles gaat.

Als er een algemene thematische site is (algemeen medisch, vrouwen, over alle soorten constructie en reparatie, koken, sport), dan zul je veel moeten lijden, zowel wat betreft het samenstellen van de semantische kern zelf, omdat je zult lang en vervelend moeten werken - verzamel de hoofdlijst met verzoeken, wacht lang op het parseerproces, opschonen en groeperen.

Als u op de eerste, en soms zelfs op de tweede pagina, geen specifieke thematische sites van concurrenten kunt vinden, probeer dan niet de hoofdzoekopdrachten te gebruiken die we vóór het parseren zelf in de eerste fase hebben gegenereerd, maar zoekvragen uit de hele lijst na het parseren. Bijvoorbeeld:

  • Hoe aritmie te behandelen met folkremedies;
  • Symptomen van aritmie bij vrouwen enzovoort.

Feit is dat dergelijke vragen (hartritmestoornissen, hartziekten, hartziekten...) zeer competitief zijn en het bijna onmogelijk is om voor hen de TOP te bereiken. Daarom zul je op de eerste posities, en misschien zelfs op de pagina's, vrij realistisch alleen algemene thematische portalen over alles vinden vanwege hun enorme autoriteit in de ogen van zoekmachines, leeftijd en referentiemassa.

Het is dus logisch om zinnen met een lagere frequentie te gebruiken die uit meer woorden bestaan ​​om concurrenten te vinden.

We moeten hun verzoeken analyseren. U kunt de SpyWords-service gebruiken, maar de functie voor het analyseren van zoekopdrachten is beschikbaar op betaald tarief, waarvan de kosten vrij hoog zijn. Daarom heeft het voor één kern geen zin om het tarief voor deze dienst te verhogen. Als u in de loop van een maand meerdere kernen moet verzamelen, bijvoorbeeld 5-10, dan kunt u een account kopen. Maar nogmaals: alleen als u een budget heeft voor het PRO-tarief.

U kunt ook Liveinternet-statistieken gebruiken als deze open zijn voor weergave. Heel vaak maken eigenaren het open voor adverteerders, maar sluiten ze het gedeelte ‘zoekzinnen’, wat precies is wat we nodig hebben. Maar er zijn nog steeds sites waar dit gedeelte voor iedereen toegankelijk is. Zeer zeldzaam, maar beschikbaar.

De eenvoudigste manier is om eenvoudig de secties en de sitemap te bekijken. Soms missen we niet alleen enkele bekende nichezinnen, maar ook specifieke verzoeken. Er staat misschien niet zo veel materiaal op en je kunt er geen aparte sectie voor maken, maar ze kunnen wel een paar dozijn artikelen toevoegen.

Wanneer we weer een lijst met nieuwe zinnen hebben gevonden om te verzamelen, lanceren we dezelfde verzameling zoek zinnen uit de linkerkolom van Yandex Wordstat, zoals in de eerste fase. We lanceren het gewoon al, omdat we in de tweede groep “Concurrenten” zitten, zodat er specifiek verzoeken aan worden toegevoegd.

  • Na het parseren verzamelen we de exacte frequenties van zoektermen;
  • Wij stellen een filter in en verplaatsen (verwijderen) queries met een frequentie lager dan 30 naar een aparte groep;
  • We ruimen afval op (stop woorden en vragen die geen verband houden met de niche).

We ontvingen dus nog een kleine lijst met vragen en de semantische kern werd completer.

Fase 3 – uitbreiding

We hebben al een groep genaamd “1-2”. Daarin kopiëren we zinnen uit de groepen “ Hoofdlijst verzoeken" en "Concurrenten". Het is belangrijk om te kopiëren en niet te verplaatsen, zodat alle frases in de vorige groepen blijven, voor het geval dat. Op deze manier zal het veiliger zijn. Om dit te doen, moet u in het zinsoverdrachtvenster de optie "kopiëren" selecteren.

We hebben alle aanvragen van fase 1-2 in één groep ontvangen. Nu hoeft u in deze groep slechts 10% van de meest voorkomende zoekopdrachten van het totale aantal achter te laten en die minimaal 2 woorden bevatten. Er mogen ook niet meer dan 100 stuks zijn. We verminderen het om niet een maand lang begraven te raken tijdens het verzamelen van de kern.

Eerst passen we een filter toe waarbij we de voorwaarde zo instellen dat er minimaal 2-woordzinnen worden getoond.


We markeren alle zinnen in de resterende lijst. Door op de kolom ‘Frequentie!’ te klikken, sorteren we de zinnen in aflopende volgorde van het aantal vertoningen, zodat de meest voorkomende bovenaan staan. Selecteer vervolgens de eerste 10% van het resterende aantal zoekopdrachten, schakel deze uit (rechtermuisknop - schakel geselecteerde regels uit) en verwijder de gemarkeerde zinnen zodat alleen deze 10% overblijft. Vergeet niet dat als uw 10% meer dan 100 woorden bedraagt, we stoppen bij regel 100, meer is niet nodig.

Nu voeren we de uitbreiding uit met behulp van de keycollector-functie. De Rookee-service helpt hierbij.


We geven de verzamelingsparameters aan zoals in de onderstaande schermafbeelding.

De service verzamelt alle extensies. Onder de nieuwe zinnen kunnen er zeer lange sleutels en symbolen voorkomen, dus het zal niet voor iedereen mogelijk zijn om frequentie via Yandex Direct te verzamelen. U zult dan statistieken moeten verzamelen via de knop van Wordstat.

Na ontvangst van statistieken verwijderen we verzoeken met maandelijkse vertoningen van minder dan 30 en voeren we een opschoning uit (stopwoorden, rommel, zoekwoorden die niet geschikt zijn voor de niche).

Het podium is voorbij. We hebben weer een lijst met verzoeken ontvangen.

Fase 4 – het verzamelen van de beste woordvormen

Zoals ik al eerder zei, het doel is niet om de vorm van de zin te bepalen die correcter zal zijn.

In de meeste gevallen (gebaseerd op mijn ervaring) zal het verzamelen van de beste woordvormen verwijzen naar dezelfde zinsnede die in de zoeklijst staat. Maar er zullen ongetwijfeld ook zoekopdrachten zijn waarvoor een nieuwe woordvorm zal worden aangegeven, die nog niet in de semantische kern zit. Deze zijn aanvullend belangrijkste vragen. In deze fase bereiken we de kern tot maximale volledigheid.

Bij het assembleren van de kern leverde deze fase nog eens 107 extra verzoeken op.

Eerst kopiëren we de sleutels naar de groep “1-3” uit de groepen “Hoofdquery’s”, “Concurrenten” en “1-2”. De som van alle verzoeken uit alle eerder voltooide fasen moet worden verkregen. Vervolgens gebruiken we de Rookee-service met dezelfde knop als de extensie. Kies gewoon een andere functie.


Het verzamelen gaat beginnen. Zinnen worden toegevoegd aan een nieuwe kolom 'Beste zinsvorm'.

De beste vorm zal niet voor alle zinnen worden bepaald, omdat de Rookee-service simpelweg niet alle beste vormen kent. Maar voor de meerderheid zal het resultaat positief zijn.

Wanneer het proces is voltooid, moet u deze zinnen aan de hele lijst toevoegen, zodat ze in dezelfde kolom 'Zin' staan. Om dit te doen, selecteert u alle zinnen in de kolom "Beste zinsvorm", kopieert u (rechtermuisknop - kopiëren), klikt u vervolgens op de grote groene knop "Zinnen toevoegen" en voert u ze in.

Zorg ervoor dat de zinnen verschijnen algemene lijst erg makkelijk. Omdat het toevoegen van zinnen aan de tabel helemaal onderaan gebeurt, scrollen we naar de onderkant van de lijst en in de kolom "Bron" zouden we het pictogram van de knop Toevoegen moeten zien.

Zinnen die met behulp van extensies zijn toegevoegd, worden gemarkeerd met een handpictogram.

Omdat de frequentie voor de beste woordvormen niet is vastgesteld, moet dit wel gebeuren. Net als in de vorige fasen verzamelen we het aantal vertoningen. Wees niet bang dat we in dezelfde groep verzamelen waar de andere verzoeken zich bevinden. De verzameling gaat gewoon door voor de zinnen met lege cellen.

Als het u uitkomt, kunt u in eerste instantie de beste woordvormen toevoegen, niet aan dezelfde groep waarin ze zijn gevonden, maar aan een nieuwe, zodat alleen zij er zijn. En verzamel er al statistieken in, ruim afval op, enzovoort. En voeg dan pas de resterende normale zinnen toe aan de hele lijst.

Dat is alles. De semantische kern van de site is samengesteld. Maar er is nog veel werk. Laten we doorgaan.

Voor de volgende acties U dient alle aanvragen met de benodigde gegevens te uploaden naar een Excel-bestand op uw computer. Wij hebben de exportinstellingen eerder ingesteld, zodat u dit meteen kunt doen. Het exporticoontje in het KeyCollector hoofdmenu is hiervoor verantwoordelijk.

Wanneer u het bestand opent, zou u 4 kolommen moeten krijgen:

  1. Zin;
  2. Bron;
  3. Frequentie!;
  4. De beste vorm van de zin.

Dit is onze laatste semantische kern, die de maximale zuivere en noodzakelijke lijst met vragen bevat voor het schrijven van toekomstige teksten. In mijn geval (kleine niche) waren er 1848 aanvragen, wat neerkomt op ongeveer 250-300 materialen. Ik kan het niet met zekerheid zeggen: ik heb alle verzoeken nog niet volledig gedegroepeerd.

Voor onmiddellijk gebruik is dit nog steeds een ruwe optie, omdat... verzoeken zijn in een chaotische volgorde. We moeten ze ook in groepen verdelen, zodat elke groep de sleutels tot één artikel bevat. Dit is het uiteindelijke doel.

Degroepering van de semantische kern

Deze fase wordt vrij snel voltooid, zij het met enkele moeilijkheden. De dienst zal ons helpen http://kg.ppc-panel.ru/. Er zijn nog andere opties, maar deze zullen we gebruiken omdat we daarmee alles zullen doen in de kwaliteit/snelheid verhouding. Wat hier nodig is, is niet snelheid, maar vooral kwaliteit.

Heel handig aan de dienst is dat deze met behulp van cookies alle acties in je browser onthoudt. Zelfs als u deze pagina of de browser in zijn geheel sluit, wordt alles opgeslagen. Op deze manier hoeft u niet alles in één keer te doen en hoeft u niet bang te zijn dat alles in één moment verloren gaat. U kunt op elk gewenst moment doorgaan. Het belangrijkste is dat u uw browsercookies niet wist.

Ik zal u laten zien hoe u de service kunt gebruiken aan de hand van het voorbeeld van verschillende fictieve zoekopdrachten.

We gaan naar de service en voegen de volledige semantische kern (alle zoekopdrachten uit het Excel-bestand) toe die eerder zijn geëxporteerd. Kopieer gewoon alle sleutels en plak ze in het venster, zoals weergegeven in de onderstaande afbeelding.

Ze zouden in de linkerkolom “Trefwoorden” moeten verschijnen.

Voor de aanwezigheid van gearceerde groepen in rechter zijde niet op letten. Dit zijn groepen uit mijn vorige kern.

We kijken naar de linkerkolom. Er is een toegevoegde lijst met zoekopdrachten en een regel "Zoeken/Filter". We zullen het filter gebruiken.

De technologie is heel eenvoudig. Wanneer we een deel van een woord of zin invoeren, laat de service in realtime in de lijst met zoekopdrachten alleen de zoekopdrachten achter die het ingevoerde woord of de ingevoerde zin in de zoekopdracht zelf bevatten.

Zie hieronder voor meer duidelijkheid.


Ik wilde alle vragen met betrekking tot aritmie vinden. Ik voer het woord "Aritmie" in en de service laat automatisch in de lijst met zoekopdrachten alleen de zoekopdrachten achter die het ingevoerde woord of een deel ervan bevatten.

De zinnen worden verplaatst naar een groep, die een van de sleutelzinnen van deze groep wordt genoemd.

We hebben een groep ontvangen met daarin alle trefwoorden voor aritmie. Om de inhoud van een groep te zien, klikt u erop. Even later zullen we deze groep verder opdelen in kleinere groepen, aangezien er veel toetsen zijn met hartritmestoornissen en ze allemaal onder verschillende artikelen staan.

In de beginfase van het groeperen moet u dus grote groepen maken die een groot aantal trefwoorden uit één nichevraag combineren.

Als we hetzelfde onderwerp hartziekten als voorbeeld nemen, maak ik eerst een groep 'aritmie', dan 'hartziekte', dan 'hartaanval', enzovoort, totdat er groepen zijn voor elke ziekte.

In de regel zullen er bijna net zoveel van dergelijke groepen zijn als de belangrijkste nichezinnen die in de eerste fase van het verzamelen van de kern worden gegenereerd. Maar in ieder geval zouden er meer moeten zijn, aangezien er ook zinnen uit fase 2-4 zijn.

Sommige groepen kunnen in totaal 1-2 sleutels bevatten. Dit kan bijvoorbeeld te maken hebben met een zeer zeldzame ziekte en niemand weet ervan of niemand is er naar op zoek. Daarom zijn er geen verzoeken.

Wanneer de hoofdgroepen worden gemaakt, is het over het algemeen noodzakelijk om ze op te splitsen in kleinere groepen, die zullen worden gebruikt om individuele artikelen te schrijven.

Binnen de groep staat naast elke sleutelzin een kruisje. Als u erop klikt, wordt de zin uit de groep verwijderd en keert u terug naar de niet-gegroepeerde lijst met trefwoorden.

Dit is hoe verdere groepering plaatsvindt. Ik zal het je laten zien met een voorbeeld.

In de afbeelding kun je zien dat er sleutelzinnen zijn die verband houden met de behandeling van aritmie. Als we ze in een aparte groep voor een apart artikel willen definiëren, dan verwijderen we ze uit de groep.


Ze verschijnen in de lijst in de linkerkolom.

Als er nog steeds zinnen in de linkerkolom staan, moet u een filter toepassen (gebruik de zoekopdracht) om verwijderde sleutels uit de groep te vinden. Als de lijst volledig in groepen is verdeeld, zijn er alleen verwijderde verzoeken. We markeren ze en klikken op “Groep aanmaken”.


Een andere verschijnt in de kolom 'Groepen'.

Zo verdelen we alle sleutels per onderwerp en wordt uiteindelijk voor elke groep een apart artikel geschreven.

De enige moeilijkheid in dit proces ligt in het analyseren van de noodzaak om sommige trefwoorden te degroeperen. Feit is dat er sleutels zijn die inherent verschillend zijn, maar daarvoor hoeven geen afzonderlijke teksten te worden geschreven, maar over veel kwesties is gedetailleerd materiaal geschreven.

Dit komt duidelijk tot uiting in medische onderwerpen. Als we het voorbeeld van aritmie nemen, heeft het geen zin om de sleutels ‘oorzaken van aritmie’ en ‘symptomen van aritmie’ te maken. De sleutels tot de behandeling van aritmie staan ​​nog steeds ter discussie.

Dit zal na analyse blijken. Zoekresultaten. We gaan naar Yandex zoeken en voeren de geanalyseerde sleutel in. Als we zien dat de TOP artikelen bevat die alleen over symptomen van aritmie gaan, dan gegeven sleutel toegewezen aan een aparte groep. Maar als de teksten in de TOP alle problemen onthullen (behandeling, oorzaken, symptomen, diagnose, enz.), dan kan de groepering in in dit geval hoeft niet. We behandelen al deze onderwerpen in één artikel.

Als in Yandex precies dergelijke teksten bovenaan de zoekresultaten staan, is dit een teken dat het opheffen van de groepering niet de moeite waard is.

Hetzelfde kan worden geïllustreerd door de sleutelzin ‘oorzaken van haaruitval’. Er kunnen “oorzaken van haarverlies bij mannen” en “...bij vrouwen” zijn. Uiteraard kun je voor elke toets een aparte tekst schrijven, op basis van logica. Maar wat zal Yandex zeggen?

We voeren elke sleutel in en kijken welke teksten er staan. Er zijn afzonderlijke gedetailleerde teksten voor elke toets, waarna de toetsen niet meer gegroepeerd zijn. Als er in de TOP voor beide vragen algemeen materiaal staat over de belangrijkste “oorzaken van haaruitval”, waarin vragen over vrouwen en mannen worden onthuld, dan laten we de sleutels binnen één groep en publiceren we één materiaal waarin onderwerpen over alle sleutels worden onthuld .

Dit is belangrijk, want niet voor niets herkent de zoekmachine teksten in de TOP. Als de eerste pagina uitsluitend gedetailleerde teksten over een specifiek onderwerp bevat, is de kans groot dat u, door een groot onderwerp in subonderwerpen op te delen en over elk onderwerp te schrijven, niet de TOP bereikt. En dus heeft één materiaal alle kans om goede posities te krijgen voor alle verzoeken en er goed verkeer voor te genereren.

IN medische onderwerpen Dit punt vereist veel aandacht, wat het ontgroeperingsproces aanzienlijk compliceert en vertraagt.

Helemaal onderaan de kolom ‘Groepen’ bevindt zich een knop ‘Ontladen’. Klik erop en krijg een nieuwe kolom met tekstveld, met alle groepen gescheiden door inspringing.

Als niet alle sleutels in groepen staan, staan ​​er in het veld 'Uploaden' geen spaties tussen. Ze verschijnen alleen als het degroeperen volledig is voltooid.

Selecteer alle woorden (toetsencombinatie Ctrl+A), kopieer ze en plak ze in nieuwe excel bestand.

Klik in geen geval op de knop “Alles wissen”, aangezien absoluut alles wat u hebt gedaan, wordt verwijderd.

De ontgroeperingsfase is voorbij. Nu kunt u veilig de tekst voor elke groep schrijven.

Maar voor maximale efficiëntie, als uw budget het niet toestaat om het hele gezin uit te schrijven. kern in een paar dagen, en er is slechts een strikt beperkte mogelijkheid voor regelmatige publicatie van een klein aantal teksten (bijvoorbeeld 10-30 per maand), dan is het de moeite waard om de concurrentie van alle groepen te bepalen. Dit is belangrijk omdat de groepen met de minste concurrentie resultaten opleveren in de eerste 2-3-4 maanden na het schrijven zonder enige links. Het enige dat u hoeft te doen, is hoogwaardige, concurrerende tekst schrijven en deze correct optimaliseren. Dan zal de tijd alles voor je doen.

Definitie van groepscompetitie

Ik zou meteen willen opmerken dat een verzoek of een groep verzoeken met weinig concurrentie niet betekent dat ze zeer micro-laagfrequent zijn. Het mooie is dat er een redelijk behoorlijk aantal verzoeken is die weinig concurrentie hebben, maar dat tegelijkertijd wel hebben hoge frequentie, waardoor zo’n artikel meteen in de TOP verschijnt en stevig verkeer naar één document trekt.

Een zeer realistisch beeld is bijvoorbeeld wanneer een groep verzoeken 2-5 concurrentie heeft en de frequentie ongeveer 300 vertoningen per maand is. Omdat we slechts 10 van dergelijke teksten hebben geschreven, zullen we, nadat ze de TOP hebben bereikt, dagelijks minstens 100 bezoekers ontvangen. En dit zijn slechts 10 teksten. 50 artikelen - 500 bezoeken en deze cijfers worden als plafond genomen, omdat hierbij alleen rekening wordt gehouden met het verkeer voor exacte vragen in de groep. Maar er zal ook verkeer worden aangetrokken vanuit andere staarten van verzoeken, en niet alleen vanuit groepen.

Daarom is het identificeren van de concurrentie zo belangrijk. Soms zie je een situatie waarin er 20-30 teksten op een site staan ​​en er al 1000 bezoeken zijn. En de site is jong en er zijn geen links. Nu weet je waar dit mee te maken heeft.

Vraagprijsvraag kan geheel kosteloos via dezelfde KeyCollector worden bepaald. Dit is erg handig, maar idealiter deze optie zijn niet correct, aangezien de formule voor het bepalen van de concurrentie voortdurend verandert als gevolg van veranderingen in de algoritmen van zoekmachines.

Identificeer de concurrentie beter met behulp van de service http://mutagen.ru/. Het wordt betaald, maar ligt zoveel mogelijk dichter bij de echte indicatoren.

100 verzoeken kosten slechts 30 roebel. Als u een kern heeft voor 2000 verzoeken, kost de volledige cheque 600 roebel. 20 per dag gratis cheques(alleen voor degenen die hun saldo met welk bedrag dan ook hebben opgewaardeerd). Je kunt elke dag twintig zinnen evalueren totdat je het concurrentievermogen van de hele kern hebt bepaald. Maar dit is erg lang en dom.

Daarom gebruik ik het mutageen en heb er geen klachten over. Soms zijn er problemen met betrekking tot de verwerkingssnelheid, maar dit is niet zo belangrijk, omdat zelfs na het sluiten van de servicepagina de controle op de achtergrond doorgaat.

De analyse zelf is heel eenvoudig. Registreer op de site. We vullen het saldo op elke gemakkelijke manier aan en de cheque is verkrijgbaar op het hoofdadres (mutagen.ru). We voeren een zin in het veld in en deze begint onmiddellijk te worden geëvalueerd.

We zien dat voor de gecontroleerde zoekopdracht het concurrentievermogen meer dan 25 bleek te zijn. Dit is een zeer hoge indicator en kan gelijk zijn aan elk getal. De dienst geeft het niet als echt weer, omdat dit geen zin heeft vanwege het feit dat dergelijke concurrerende verzoeken vrijwel onmogelijk te promoten zijn.

Het normale concurrentieniveau wordt geacht maximaal 5 te zijn. Het zijn juist dergelijke verzoeken die gemakkelijk worden gepromoot zonder onnodige gebaren. Iets hogere waarden zijn ook heel acceptabel, maar zoekopdrachten met waarden groter dan 5 (bijvoorbeeld 6-10) moeten worden gebruikt nadat je al teksten hebt geschreven voor minimale concurrentie. Maximaal belang snelle tekst in de top.

Ook tijdens de beoordeling worden de kosten van een klik in Yandex.Direct bepaald. Het kan worden gebruikt om uw toekomstige inkomsten te schatten. We houden rekening met gegarandeerde vertoningen, waarvan we de waarde veilig kunnen delen door 3. In ons geval kunnen we zeggen dat één klik op een Yandex Direct-advertentie ons 1 roebel oplevert.

De dienst bepaalt ook het aantal vertoningen, maar daar kijken wij niet naar, aangezien niet de frequentie van het type “!request” wordt bepaald, maar alleen de “request”. De indicator blijkt onnauwkeurig te zijn.

Deze analyseoptie is geschikt als we één verzoek willen analyseren. Indien nodig massa controle sleutelzinnen, dan staat er op de hoofdpagina een speciale link bovenaan het sleutelinvoerveld.


Op volgende bladzijde maak een nieuwe taak en voeg een lijst met sleutels uit de semantische kern toe. We halen ze uit het bestand waarin de sleutels al zijn gedegroepeerd.

Als er voldoende saldo op de balans staat voor analyse, begint de controle onmiddellijk. De duur van de controle is afhankelijk van het aantal sleutels en kan enige tijd in beslag nemen. Ik analyseerde ongeveer 1 uur lang 2000 zinnen, terwijl de tweede keer dat ik slechts 30 sleutels controleerde enkele uren duurde.

Direct na het starten van de scan ziet u de taak in de lijst, waar zich een kolom “Status” bevindt. Dit zal u vertellen of de taak gereed is of niet.

Bovendien kunt u na het voltooien van de taak onmiddellijk een bestand downloaden met een lijst met alle zinnen en het concurrentieniveau voor elke zin. De zinnen staan ​​allemaal in dezelfde volgorde als waarin ze werden gedegroepeerd. Het enige is dat de ruimtes tussen de groepen worden verwijderd, maar dit is geen probleem, omdat alles intuïtief zal zijn, omdat elke groep sleutels over een ander onderwerp bevat.

Als de taak nog niet is voltooid, kunt u bovendien naar de taak zelf gaan en de wedstrijdresultaten bekijken voor reeds voltooide verzoeken. Klik gewoon op de taaknaam.

Als voorbeeld zal ik het resultaat laten zien van het controleren van een groep zoekopdrachten op de semantische kern. Eigenlijk is dit de groep waarvoor dit artikel is geschreven.

We zien dat bijna alle aanvragen een maximale concurrentie van 25 of dichterbij hebben. Dit betekent dat ik voor deze verzoeken de eerste posities helemaal niet zie, of dat ik ze heel lang niet zal zien. Ik zou dergelijk materiaal helemaal niet op de nieuwe site schrijven.

Nu heb ik het alleen gepubliceerd om te creëren kwaliteit inhoud naar de blog. Natuurlijk is mijn doel om de top te bereiken, maar dat is later. Als de handleiding de eerste pagina bereikt, althans alleen voor het hoofdverzoek, dan kan ik al rekenen op aanzienlijk verkeer alleen naar deze pagina.

De laatste stap is het maken van het definitieve bestand, dat we zullen bekijken tijdens het vullen van de site. De semantische kern van de site is al samengesteld, maar het beheer ervan is nog niet helemaal handig.

Het creëren van een definitief bestand met alle gegevens

We hebben de KeyCollector opnieuw nodig, evenals de laatste Excel bestand, die wij van de mutagene dienst hebben ontvangen.

We openen het eerder ontvangen bestand en zien zoiets als het volgende.

We hebben slechts 2 kolommen uit het bestand nodig:

  1. sleutel;
  2. concurrentie.

U kunt eenvoudig alle overige inhoud uit dit bestand verwijderen, zodat alleen de noodzakelijke gegevens overblijven, of u kunt het geheel aanmaken. nieuw bestand, maak daar een mooie titelregel met de namen van de kolommen en markeer deze bijvoorbeeld groente en kopieer de overeenkomstige gegevens naar elke kolom.

Vervolgens kopiëren we de volledige semantische kern uit dit document en voegen deze opnieuw toe aan de sleutelverzamelaar. Er zullen opnieuw frequenties moeten worden verzameld. Dit is nodig zodat de frequenties in dezelfde volgorde worden verzameld als waarin de sleutelzinnen zich bevinden. Voorheen verzamelden we ze om afval te verwijderen, en nu om het definitieve bestand te maken. Natuurlijk voegen we zinnen toe aan een nieuwe groep.

Wanneer de frequenties zijn verzameld, exporteren we het bestand uit de volledige frequentiekolom en kopiëren we het naar het uiteindelijke bestand, dat 3 kolommen zal hebben:

  1. belangrijkste zin;
  2. concurrentievermogen;
  3. frequentie.

Nu hoef je alleen nog maar even te zitten en de berekeningen voor elke groep uit te voeren:

  • Gemiddelde groepsfrequentie - het is niet de indicator van elke toets die belangrijk is, maar de gemiddelde indicator van de groep. Het wordt berekend als het gebruikelijke rekenkundige gemiddelde (in Excel - de functie "GEMIDDELDE");
  • Deel de totale frequentie van de groep door 3 om het mogelijke verkeer naar reële cijfers te brengen.

Om ervoor te zorgen dat u zich geen zorgen hoeft te maken over het beheersen van berekeningen in Excel, heb ik een bestand voor u voorbereid waarin u alleen maar gegevens in de vereiste kolommen hoeft in te voeren en alles wordt volledig automatisch berekend. Elke groep moet afzonderlijk worden berekend.

Er zal een eenvoudig rekenvoorbeeld in zitten.

Zoals je kunt zien, is alles heel eenvoudig. Kopieer vanuit het uiteindelijke bestand eenvoudig alle volledige zinnen van de groep met alle indicatoren en plak ze in dit bestand in plaats van de vorige zinnen met hun gegevens. En de berekening gebeurt automatisch.

Het is belangrijk dat de kolommen in het uiteindelijke bestand en in het mijne precies in deze volgorde staan. Eerst de zin, dan de frequentie, en pas daarna de concurrentie. Anders ga je onzin tellen.

Vervolgens zul je een beetje moeten zitten om nog een bestand of blad (ik raad aan) in het bestand te maken met alle gegevens over elke groep. Dit blad bevat niet alle zinnen, maar alleen de hoofdzin van de groep (we zullen het gebruiken om te bepalen wat voor soort groep het is) en de berekende waarden van de groep uit mijn bestand. Dit is een soort eindbestand met gegevens over elke groep met berekende waarden. Dit is waar ik naar kijk bij het kiezen van teksten voor publicatie.

U krijgt dezelfde 3 kolommen, alleen zonder berekeningen.

In de eerste voegen we de hoofdzin van de groep in. In principe is alles mogelijk. Het is alleen nodig om het te kopiëren en, via een zoekopdracht, de locatie te vinden van alle groepssleutels die op een ander blad staan.

In de tweede kopiëren we de berekende frequentiewaarde uit mijn bestand, en in de derde kopiëren we de gemiddelde waarde van de concurrentie van de groep. We halen deze cijfers uit de regel "Resultaat".

Het resultaat zal het volgende zijn.

Dit is het 1e blad. Het tweede blad bevat de volledige inhoud van het uiteindelijke bestand, d.w.z. alle zinnen met indicatoren van hun frequentie en concurrentie.

Nu kijken we naar het eerste blad. We selecteren de meest “kosteneffectieve” groep sleutels. We kopiëren de zin uit de eerste kolom en vinden deze met behulp van zoeken (Ctrl + F) op het tweede blad, waar de rest van de groepszinnen ernaast zullen staan.

Dat is alles. De handleiding is ten einde. Op het eerste gezicht is alles erg ingewikkeld, maar in werkelijkheid is het vrij eenvoudig. Zoals ik aan het begin van het artikel al zei, moet je er gewoon mee beginnen. In de toekomst ben ik van plan een videohandleiding te maken met behulp van deze instructies.

Welnu, met deze opmerking beëindig ik de instructies.

Allemaal vrienden. Als je suggesties of vragen hebt, wacht ik op je in de reacties. Doei.

P.S. Neem op voor het volume van de inhoud. In Word bleken het meer dan 50 velletjes te zijn kleine afdruk. Het was mogelijk om geen artikel te publiceren, maar een boek te maken.

Met vriendelijke groet, Konstantin Khmelev!

IN dit moment Bij zoekmachinepromotie spelen factoren als inhoud en structuur de belangrijkste rol. Maar hoe kunt u begrijpen waar u tekst over moet schrijven, welke secties en pagina's u op de site moet maken? Daarnaast moet u precies weten waarin de beoogde bezoeker van uw bron geïnteresseerd is. Om al deze vragen te beantwoorden moet je een semantische kern verzamelen.

Semantische kern— een lijst met woorden of zinsdelen die het thema van uw site volledig weerspiegelen.

In het artikel vertel ik je hoe je het oppakt, schoonmaakt en opsplitst in structuur. Het resultaat is een complete structuur met zoekopdrachten geclusterd over pagina's.

Hier is een voorbeeld van een querykern opgesplitst in een structuur:


Met clusteren bedoel ik het opsplitsen van uw zoekopdrachten in individuele pagina's. Deze methode zal relevant zijn voor zowel promotie in Yandex als Google PS. In het artikel zal ik het volledig beschrijven vrije manier door een semantische kern te creëren, zal ik echter ook opties laten zien met verschillende betaalde diensten.

Na het lezen van het artikel zul je het leren

  • Kiezen juiste vragen passend bij uw thema
  • Verzamel de meest complete kern van zinnen
  • Ruim oninteressante verzoeken op
  • Groepeer en creëer structuur

Nadat u de semantische kern heeft verzameld, kunt u dat doen

  • Creëer een betekenisvolle structuur op de site
  • Creëer een menu met meerdere niveaus
  • Vul pagina's met teksten en schrijf er metabeschrijvingen en titels op
  • Verzamel de posities van uw website voor zoekopdrachten van zoekmachines

Verzameling en clustering van de semantische kern

Een correcte compilatie voor Google en Yandex begint met het identificeren van de belangrijkste sleutelzinnen van uw onderwerp. Als voorbeeld zal ik de samenstelling ervan demonstreren aan de hand van een fictieve online kledingwinkel. Er zijn drie manieren om de semantische kern te verzamelen:

  1. Handmatig. Met behulp van de Yandex Wordstat-service voert u uw trefwoorden in en selecteert u handmatig de zinnen die u nodig heeft. Deze methode is vrij snel als u sleutels op één pagina moet verzamelen, maar er zijn twee nadelen.
    • De nauwkeurigheid van de methode is slecht. Je kunt er altijd wel een paar missen belangrijke woorden als u deze methode gebruikt.
    • U kunt geen semantische kern samenstellen voor een grote online winkel, hoewel u deze wel kunt gebruiken Yandex-plug-in Wordstat Assistant - dit lost het probleem niet op.
  2. Halfautomatisch. Bij deze methode ga ik ervan uit dat ik een programma gebruik om de kernel te verzamelen en vervolgens handmatige uitsplitsing in secties, subsecties, pagina's, enz. Deze methode Het compileren en clusteren van de semantische kern is naar mijn mening het meest effectief omdat heeft een aantal voordelen:
    • Maximale dekking van alle onderwerpen.
    • Kwalitatieve uitsplitsing
  3. Auto. Tegenwoordig zijn er verschillende diensten die volledig aanbieden automatische incasso kernels of clustering van uw vragen. Volautomatische optie - ik raad het gebruik ervan niet aan, omdat... De kwaliteit van het verzamelen en clusteren van de semantische kern is momenteel vrij laag. Automatische clustering van zoekopdrachten wint aan populariteit en heeft zijn plaats gekregen, maar u moet sommige pagina's nog steeds handmatig samenvoegen, omdat het systeem geeft geen ideaalbeeld kant-en-klare oplossing. En naar mijn mening zul je gewoon in de war raken en je niet in het project kunnen onderdompelen.

Om voor elk project een volwaardige correcte semantische kern samen te stellen en te clusteren, gebruik ik in 90% van de gevallen een semi-automatische methode.

Dus, om we moeten deze stappen volgen:

  1. Selectie van zoekopdrachten voor onderwerpen
  2. Het verzamelen van de kernel op basis van verzoeken
  3. Niet-doelgerichte verzoeken opruimen
  4. Clustering (zinnen in structuur opdelen)

Ik liet een voorbeeld zien van het selecteren van een semantische kern en het groeperen in een structuur hierboven. Laat me je eraan herinneren dat we een online kledingwinkel hebben, dus laten we naar punt 1 kijken.

1. Selectie van zinnen voor uw onderwerp

Op in dit stadium we hebben de Yandex Wordstat-tool, uw concurrenten en logica nodig. In deze stap is het belangrijk om een ​​lijst met zinsdelen te verzamelen die thematische hoogfrequente zoekopdrachten zijn.

Hoe u zoekopdrachten selecteert om semantiek van Yandex Wordstat te verzamelen

Ga naar de dienst, selecteer de stad(en)/regio('s) die je nodig hebt, voer naar jouw mening de meest “dikke” zoekopdrachten in en kijk naar de rechterkolom. Daar vindt u de thematische woorden die u nodig heeft, zowel voor andere secties, als frequentie-synoniemen voor de ingevoerde zin.

Hoe u zoekopdrachten selecteert voordat u een semantische kern samenstelt met behulp van concurrenten

Voer de populairste zoekopdrachten in de zoekmachine in en selecteer een van de populairste sites, waarvan u er waarschijnlijk al veel kent.

Besteed aandacht aan de hoofdsecties en bewaar de zinnen die je nodig hebt.

In dit stadium is het belangrijk om het juiste te doen: zoveel mogelijk alle mogelijke woorden uit je onderwerp behandelen en niets missen, dan is je semantische kern zo compleet mogelijk.

Als we ons voorbeeld toepassen, moeten we een lijst maken met de volgende zinnen/trefwoorden:

  • Lap
  • Schoenen
  • Laarzen
  • Jurken
  • T-shirts
  • Ondergoed
  • Korte broek

Welke zinnen zijn zinloos om in te voeren?: dameskleding, schoenen kopen, galajurk, enz. Waarom?— Deze zinnen zijn de “staarten” van de zoekopdrachten “kleding”, “schoenen”, “jurken” en worden automatisch toegevoegd aan de semantische kern in de tweede verzamelfase. Die. je kunt ze toevoegen, maar het zal zinloos dubbelwerk zijn.

Welke sleutels moet ik invoeren?‘Lage laarzen’, ‘laarzen’ zijn niet hetzelfde als ‘laarzen’. Het is de woordvorm die belangrijk is, niet of deze woorden dezelfde wortel hebben of niet.

Voor sommigen zal de lijst met sleutelzinnen lang zijn, maar voor anderen bestaat deze uit één woord: wees niet ongerust. Voor een online deurenwinkel kan het woord ‘deur’ bijvoorbeeld voldoende zijn om een ​​semantische kern samen te stellen.

En dus zouden we aan het einde van deze stap een lijst als deze moeten hebben.

2. Het verzamelen van queries voor de semantische kern

Voor een goede, volledige verzameling hebben we een programma nodig. Ik zal een voorbeeld laten zien waarbij ik twee programma's tegelijkertijd gebruik:

  • Op de betaalde versie - KeyCollector. Voor wie hem heeft of wil kopen.
  • Gratis - Slovoeb. Een gratis programma voor degenen die niet klaar zijn om geld uit te geven.

Open het programma

Maak een nieuw project en noem het bijvoorbeeld Mysite

Om de semantische kern verder te verzamelen, moeten we verschillende dingen doen:

Creëren nieuw account op Yandex-mail (de oude wordt niet aanbevolen vanwege het feit dat deze voor veel verzoeken kan worden verboden). U heeft bijvoorbeeld een account aangemaakt [e-mailadres beveiligd] met wachtwoord super2018. Nu moet je dit account in de instellingen specificeren als ivan.ivanov:super2018 en op de knop “wijzigingen opslaan” hieronder klikken. Meer details in de schermafbeeldingen.

We selecteren een regio om een ​​semantische kern samen te stellen. U hoeft alleen de regio's te selecteren waarin u reclame gaat maken en op Opslaan te klikken. De frequentie van de aanvragen en of deze in de collectie worden opgenomen, zal hiervan in beginsel afhangen.

Alle instellingen zijn voltooid, het enige dat overblijft is het toevoegen van onze lijst met sleutelzinnen die in de eerste stap zijn voorbereid en op de knop "start verzamelen" van de semantische kern klikken.

Het proces is volledig automatisch en vrij lang. Je kunt voorlopig koffie zetten, maar als het onderwerp breed is, zoals het onderwerp dat we verzamelen, dan duurt dit enkele uren 😉

Zodra alle zinnen zijn verzameld, ziet u zoiets als dit:

En deze fase is voorbij - laten we verder gaan met de volgende stap.

3. Het opschonen van de semantische kern

Eerst moeten we verzoeken verwijderen die niet interessant voor ons zijn (niet-doelgericht):

  • Gerelateerd aan een ander merk, bijvoorbeeld Gloria Jeans, Ekko
  • Informatievragen, bijvoorbeeld 'Ik draag laarzen', 'jeansmaat'
  • Vergelijkbaar qua onderwerp, maar niet gerelateerd aan uw bedrijf, bijvoorbeeld ‘gebruikte kleding’, ‘kledinggroothandel’
  • Zoekopdrachten die op geen enkele manier verband houden met het onderwerp, bijvoorbeeld 'Sims-jurken', 'poes in laarzen' (er zijn nogal wat van dergelijke zoekopdrachten na het selecteren van de semantische kern)
  • Verzoeken uit andere regio's, metro, wijken, straten (het maakt niet uit voor welke regio je aanvragen hebt verzameld - er komt nog steeds een andere regio tegen)

Het reinigen moet als volgt handmatig worden gedaan:

We voeren een woord in, drukken op "Enter", als het in onze gemaakte semantische kern precies de zinnen vindt die we nodig hebben, selecteren we wat we hebben gevonden en drukken we op delete.

Ik raad aan om het woord niet als geheel in te voeren, maar een constructie te gebruiken zonder voorzetsels en uitgangen, d.w.z. als we het woord “glorie” schrijven, zullen de zinnen “koop jeans bij Gloria” en “koop jeans bij Gloria” gevonden worden. Als u "gloria" spelt, wordt "gloria" niet gevonden.

U moet dus alle punten doorlopen en onnodige vragen uit de semantische kern verwijderen. Dit kan een aanzienlijke hoeveelheid tijd in beslag nemen en het kan zijn dat u uiteindelijk het grootste deel van de bestanden verwijdert verzamelde verzoeken, maar het resultaat zal een volwaardige schone en juiste lijst allerlei soorten gepromote zoekopdrachten voor uw website.

Upload nu al uw zoekopdrachten naar Excel

U kunt ook niet-doelgerichte zoekopdrachten massaal uit de semantiek verwijderen, op voorwaarde dat u over een lijst beschikt. Dit kan worden gedaan met behulp van stopwoorden, en dit is gemakkelijk te doen voor een typische groep woorden met steden, metro's en straten. Onderaan de pagina kunt u een lijst met woorden downloaden die ik gebruik.

4. Clustering van de semantische kern

Dit is het belangrijkste en meest interessante deel: we moeten onze verzoeken verdelen in pagina's en secties, die samen de structuur van uw site zullen creëren. Een beetje theorie - wat te volgen bij het scheiden van verzoeken:

  • Concurrenten. Je kunt letten op hoe de semantische kern van je concurrenten uit de TOP is geclusterd en hetzelfde doen, tenminste met de hoofdsecties. En zie ook welke pagina’s in de zoekresultaten staan ​​bij laagfrequente zoekopdrachten. Als u bijvoorbeeld niet zeker weet of u wel of niet een apart gedeelte moet maken voor de zoekopdracht 'rode leren rokken', voer dan de zin in de zoekmachine in en bekijk de resultaten. Als de zoekresultaten bronnen met dergelijke secties bevatten, is het zinvol om een ​​aparte pagina te maken.
  • Logica. Voer de volledige groepering van de semantische kern uit met behulp van logica: de structuur moet duidelijk zijn en in je hoofd een gestructureerde boom van pagina's met categorieën en subcategorieën vertegenwoordigen.

En nog een paar tips:

  • Het wordt afgeraden om minder dan 3 verzoeken per pagina te plaatsen.
  • Maak niet te veel nestniveaus, probeer er 3-4 te hebben (site.ru/category/subcategory/sub-subcategory)
  • Maak geen lange URL's. Als u veel nestniveaus heeft bij het clusteren van de semantische kern, probeer dan de URL's van categorieën hoog in de hiërarchie in te korten, d.w.z. in plaats van “jouw-site.ru/zhenskaya-odezhda/palto-dlya-zhenshin/krasnoe-palto” doe je “jouw-site.ru/zhenshinam/palto/krasnoe”

Nu oefenen

Kernelclustering als voorbeeld

Laten we om te beginnen alle verzoeken in hoofdcategorieën indelen. Kijkend naar de logica van de concurrenten, zullen de belangrijkste categorieën voor een kledingwinkel zijn: herenkleding, dameskleding, kinderkleding, evenals een aantal andere categorieën die niet gebonden zijn aan geslacht/leeftijd, zoals simpelweg ‘schoenen’. “bovenkleding”.

We groeperen de semantische kern wanneer Excel-hulp. Open ons dossier en handel:

  1. We verdelen het in hoofdsecties
  2. Neem één sectie en verdeel deze in subsecties

Ik zal je het voorbeeld laten zien van één sectie: herenkleding en de subsectie ervan. Om sommige sleutels van andere te scheiden, moet u het hele blad selecteren en klikken op voorwaardelijke opmaak -> celselectieregels -> tekst bevat

Schrijf nu in het geopende venster 'echtgenoot' en druk op Enter.

Nu staan ​​al onze sleutels voor herenkleding uitgelicht. Het is voldoende om een ​​filter te gebruiken om de geselecteerde sleutels te scheiden van de rest van onze verzamelde semantische kern.

Laten we dus het filter inschakelen: u moet de kolom met zoekopdrachten selecteren en op sorteren en filteren->filter klikken

En nu gaan we sorteren

Creëren apart blad. Knip de gemarkeerde lijnen uit en plak ze daar. Je zult de kernel in de toekomst met deze methode moeten splitsen.

Verander de naam van dit blad in ‘Herenkleding’, een blad waar de rest van de semantische kern ‘Alle zoekopdrachten’ heet. Maak vervolgens nog een blad, noem het ‘Structuur’ en plaats het als allereerste. Maak op de structuurpagina een boomstructuur. Je zou zoiets als dit moeten krijgen:

Nu moeten we de grote herenkledingsectie verdelen in subsecties en sub-subsecties.

Voor gebruiksgemak en navigatie door uw geclusterde semantische kern kunt u koppelingen vanuit de structuur naar de juiste bladen opgeven. Om dit te doen, klikt u met de rechtermuisknop op gewenste artikel in de structuur en doe zoals in de schermafbeelding.

En nu moet je de verzoeken methodisch handmatig scheiden, en tegelijkertijd verwijderen wat je misschien niet hebt opgemerkt en verwijderen tijdens de kernelopruimingsfase. Uiteindelijk zou je, dankzij de clustering van de semantische kern, moeten eindigen met een structuur die er ongeveer zo uitziet:

Dus. Wat we hebben geleerd:

  • Selecteer de zoekopdrachten die we nodig hebben om de semantische kern te verzamelen
  • Verzamel alle mogelijke zinnen voor deze vragen
  • Ruim ‘afval’ op
  • Cluster en creëer structuur

Wat kun je, dankzij de creatie van zo’n geclusterde semantische kern, nu doen:

  • Creëer een structuur op de site
  • Maak een menukaart
  • Schrijf teksten, metabeschrijvingen, titels
  • Verzamel posities om de dynamiek van verzoeken te volgen

Nu een beetje over programma's en services

Programma's voor het verzamelen van de semantische kern

Hier beschrijf ik niet alleen programma's, maar ook plug-ins en online diensten die ik gebruik

  • Yandex Wordstat Assistant is een plug-in waarmee u gemakkelijk zoekopdrachten uit Wordstat kunt selecteren. Ideaal om snel de kern van een kleine site of 1 pagina samen te stellen.
  • Keycollector (word-gratis versie) is een volwaardig programma voor clustering en het creëren van een semantische kern. Het is erg populair. Grote hoeveelheid functionaliteit naast de hoofdrichting: selectie van sleutels uit een aantal andere systemen, de mogelijkheid tot automatische clustering, verzameling van posities in Yandex en Google en nog veel meer.
  • Just-magic is een multifunctionele online service voor het compileren van een kernel, automatisch breken, het controleren van de kwaliteit van teksten en andere functies. De dienst is shareware, voor volwaardig werk moet u abonnementskosten betalen.

Bedankt voor het lezen van het artikel. Dankzij dit stap voor stap handleiding u kunt de semantische kern van uw site samenstellen voor promotie in Yandex en Google. Als je vragen hebt, stel ze dan in de reacties. Hieronder staan ​​de bonussen.

De semantische kern van een site is een lijst met zoekopdrachten waarvoor u de site in zoekmachines wilt promoten. Verzoeken uit de semantische kern worden gegroepeerd op sitepagina's. Kant-en-klare semantiek voor de site omvat zoekopdrachten voor elke pagina van de site die wordt gepromoot.

Basisregels voor het samenstellen van een semantische kern

  1. Per verzoek wordt slechts één pagina gepromoot. Het is niet toegestaan ​​dat één verzoek overeenkomt met twee of meer pagina's op de site. Anders kunnen zoekmachines ervoor kiezen om de verkeerde pagina voor het verzoek weer te geven.
  2. De pagina moet reageren op de vraag van de gebruiker. Als het verzoek bijvoorbeeld het woord ‘prijzen’ bevat, moeten de prijzen voor het product op de gepromote pagina worden vermeld. Als u een pagina promoot voor het verzoek “CASCO-calculator”, moet de pagina een formulier hebben voor het berekenen van de kosten van CASCO.
  3. De semantische kern moet zoekopdrachten met een hoge, gemiddelde en lage frequentie omvatten. Het is noodzakelijk om het maximale aantal geschikte zoekopdrachten te vinden, anders profiteert u niet volledig van de promotie.
  4. Bij het groeperen van verzoeken In één groep moet u zoekopdrachten opnemen waarvoor u op realistische wijze één pagina kunt promoten. Kijk hiervoor of er pagina's in de zoekresultaten zijn die in de TOP 10 staan ​​voor de door u geselecteerde zoekopdrachten. Als dergelijke pagina's niet bestaan, moeten verzoeken in verschillende groepen worden verdeeld.
  5. Controleer de invloed van "Spectrum" in Yandex. Het kan blijken dat "Spectrum" voor uw onderwerp niet 10 plaatsen in de TOP heeft verlaten, maar slechts 1 of 2 - de concurrentie om hen wordt steeds heviger. Er zijn ook zoekopdrachten waarvoor het nodig is om informatieartikelen in de TOP weer te geven, en een pagina met commerciële informatie- zal niet werken.
  6. Aandacht, reclame en tovenaars! In competitieve onderwerpen kunnen de zoekresultaten veel directe reclame en tovenaars bevatten, waardoor de zoekresultaten veel lager verschuiven en het rendement op een plaats in de TOP afneemt. Een voorbeeld van zo’n verzoek: ‘koop vliegtickets’ (zie onderstaande schermafbeelding en probeer organische resultaten op het scherm te vinden).

Hoeveel queries moet de semantische kern bevatten?

Het maximaal mogelijke aantal - idealiter alle vragen die binnen uw onderwerp vallen en voor u geschikt zijn (dat wil zeggen dat uw site deze vragen daadwerkelijk kan beantwoorden).

Kleine en middelgrote sites hebben in de regel een semantische kern van enkele honderden tot duizenden zoekopdrachten. Grote projecten kan worden gepromoot via tien- en honderdduizenden verzoeken.

In onze blog over websitepromotie ontvangt de site bijvoorbeeld hits van zoekmachines voor meer dan 2.000 verschillende zoekopdrachten per maand.

Een voorbeeld van een eenvoudige semantische kern voor een SEO-blog

Dit voorbeeld is leerzaam en weerspiegelt de essentie van de groep, maar is niet de echte kern van welk project dan ook.

Hoe verzamel je een semantische kern?

  1. Kopieer van concurrenten. In dit geval worden 2-3 concurrerende sites geselecteerd en doorlopen speciale programma's Er wordt informatie verspreid over de vragen die hun sites in de TOP 10 hebben. U kunt dergelijke informatie bijvoorbeeld gratis verkrijgen via de Seopult.ru-service. Als concurrerende sites kunt u de meest populaire sites over het onderwerp kiezen of de sites van bedrijven waarvan het productaanbod uw project zo dicht mogelijk benadert.
    Voordelen van de methode: tijd besparen bij het creëren van een semantische kern, relatieve eenvoud en gratis.
    Nadelen van deze methode: Bij een groot aantal “vuilnis”-verzoeken zullen de ontvangen gegevens moeten worden gefilterd en verder verwerkt, het risico bestaat dat de fouten van concurrenten worden gekopieerd. Zoekopdrachten die om wat voor reden dan ook niet door concurrenten zijn geselecteerd of gevonden, gaan niet verloren in de semantiek.
  2. Promoot zoekopdrachten dicht bij de TOP. Websitepromotie voor zoekopdrachten waarvan de posities dicht bij de TOP liggen. Deze methode is alleen geschikt voor oude sites die eerder gepromoot zijn. Via de systemen uit punt 1 wordt informatie verzameld over welke queries het project in de TOP-30 staat en deze queries worden opgenomen in de semantische kern.
    Voordelen van de methode: tijd en budget voor de klant besparen. Sneller rendement op promotie.
    Nadelen van de methode: deze aanpak maakt het mogelijk om te verzamelen minimale hoeveelheid verzoeken. In de toekomst moet de semantische kern worden uitgebreid. Er is geen garantie dat alle ontvangen verzoeken effectief zullen zijn voor het bedrijf van de klant.
  3. Creëer een semantische kern vanaf het begin. Semantiek wordt gevormd op basis van een diepgaande analyse van zoekopdrachten die kunnen worden gebruikt om te zoeken naar gepromote goederen, diensten of informatie.
    Voordelen van de methode: het verzamelen van het maximale aantal aanvragen voor de meest effectieve promotie.
    Nadelen van de methode: lang en duur.

Fasen voor het helemaal opnieuw samenstellen van een semantische kern voor een website

  1. Projectanalyse. Als onderdeel van de analyse is het noodzakelijk om een ​​volledige lijst samen te stellen van diensten, productcategorieën of soorten informatie die op de website van de klant worden gepresenteerd. In dit stadium wordt het ook geanalyseerd mogelijke klant bedrijven. Als een bedrijf bijvoorbeeld producten in het premiumsegment wil verkopen, heeft het geen zin om zoekopdrachten met het woord ‘goedkoop’ ter promotie aan te bieden. Het beste is om alles op een vel papier te schrijven; nog beter: maak tabellen in Excel.
  2. Brainstorm. In deze fase stelt het projectteam een ​​lijst met zoekopdrachten op waarmee, naar de mening van de teamleden, naar elk product, dienst of type informatie op de website van de klant kan worden gezocht. U kunt de klant en externe mensen die geen verband houden met SEO betrekken bij het brainstormen en hen vragen stellen over hoe zij naar deze of gene informatie op internet zullen zoeken - welke vragen ze moeten stellen, enz. Mensen zijn heel verschillend en soms zoeken ze naar informatie op basis van vragen die geen enkele specialist kan raden! Het is nuttig om de teksten op de websites van klanten en concurrenten te bestuderen; in de regel bevatten deze delen van zoekopdrachten, diverse namen dezelfde producten - dat wil zeggen, in wezen alle combinaties van woorden en zinsdelen waarmee ze via zoekmachines kunnen worden doorzocht.
  3. Zoekopdrachten uit andere bronnen pompen Aan het einde van het artikel worden links naar de nuttigste programma's gegeven om dit probleem op te lossen):
    • Statistieken van verzoeken in Yandex en Google;
    • Zoektips in zoekmachines;
    • Statistieken van overgangen naar de site vanuit zoekmachines (als de site verkeer heeft);
    • Belangrijke vragen van concurrenten;
    • De database van Pastukhov bevat ongeveer 800 miljoen zoekopdrachten van gebruikers van zoekmachines. De database wordt voortdurend bijgewerkt en aangevuld. Betaald.
  4. Verzoeken filteren, duplicaten en “lege” zinnen verwijderen. In dit stadium worden lijsten met verzoeken uit verschillende bronnen gecombineerd. Dubbele en “lege” verzoeken worden uit deze lijst verwijderd. Zinnen worden als zodanig beschouwd als bij het invoeren ervan tussen aanhalingstekens in de statistische systemen van zoekmachines een nulfrequentie wordt opgegeven. Meer informatie over het bepalen van de verzoekfrequentie.
  5. Aanvragen groeperen. In dit stadium worden uit alle verzoeken groepen geïdentificeerd, op basis van welke individuele secties en pagina's van de site worden gepromoot. Als uw site geen geschikte pagina's heeft voor promotie voor bepaalde groepen zoekopdrachten, moeten dergelijke pagina's worden gemaakt.
  6. Denk nog eens na. Soms is het handig om, na het maken van een semantische kern, 1-2 dagen te rusten en weer op dit onderwerp terug te komen - om alle verzamelde informatie met een frisse blik te bekijken. Soms verschijnen er nieuwe ideeën over hoe mensen anders via zoekmachines naar informatie zoeken - en het blijkt de semantische kern uit te breiden.

Semantische kerntesten

Wanneer u de semantische kern voor de site heeft geselecteerd, is het raadzaam deze te testen. Dit kan gedaan worden door een test uit te voeren reclamecampagne in het contextuele advertentiesysteem. Dit is duur, maar hiermee kunt u het meeste bepalen efficiënte vragen en misschien verzoeken verwijderen die geen grote verkopen opleveren.

Meer over semantische kerntesten leest u in het artikel Vijf redenen om contextueel adverteren te kopen.

Ontwikkeling van site-semantiek

Nadat je de semantische kern eenmaal hebt verzameld, kun je deze niet ongewijzigd laten. Er verschijnen nieuwe producten, er verschijnen nieuwe verzoeken en oude verliezen hun relevantie. Daarom is het minstens één keer per zes maanden tot een jaar noodzakelijk om de semantische kern bij te werken en nieuwe zoekopdrachten aan promotie te koppelen, en oude zoekopdrachten die hun relevantie hebben verloren van promotie uit te sluiten.

In de opmerkingen kunt u vragen stellen over het creëren van een semantische kern - wij zullen u helpen en indien mogelijk antwoorden.

Handige sites en diensten voor het selecteren van een semantische kern:

  • Wordstat.yandex.ru – een hulpmiddel voor het bekijken van zoekopdrachtstatistieken in Yandex;
  • Rush-analytics.ru - met de service kunt u grote kernels verzamelen op basis van Yandex.Wordstat-gegevens en het verzamelen van zoektips in Yandex en Google. Ze geven leuke bonus bij registratie in het systeem.
  • Topvisor.ru - een service waarmee u automatisch zoekopdrachten uit de semantische kern kunt groeperen. U kunt de groeperingsprecisie instellen, die van invloed is op het aantal verzoeken in één groep.
  • Advse.ru is een tool waarmee u kunt zien welke zoekopdrachten uw concurrenten gebruiken contextuele reclame(u kunt promoten voor dezelfde zoekopdrachten)
  • De database van Pastukhov is een enorme database met zoekopdrachten voor de Yandex-zoekmachine; op het moment van schrijven bestond deze uit 800 miljoen zoekopdrachten.
  • Seopult.ru is een tool waarmee u gratis de posities van uw website of die van concurrenten in de zoekresultaten kunt zien. Om vacatures te bekijken, moet u zich in het systeem registreren, een project aanmaken en de fase bereiken waarin u trefwoorden selecteert.

Goedemiddag De vorige keer hebben we gekeken... Als je alle vragen in het vorige onderwerp voor jezelf hebt kunnen beantwoorden, betekent dit dat je klaar bent om verder te gaan en uiteindelijk je eigen internetproject te lanceren, uiteraard met mijn hulp :)

Deze keer zullen we dus leren hoe we de semantische kern van een website correct met onze eigen handen kunnen creëren. In feite is alles natuurlijk vrij eenvoudig, als we het niet over een grote hebben informatieportaal of een online winkel, maar ik denk dat als je een beginner bent, je niet meteen mondiale projecten op je zult nemen, maar klein zult beginnen.

Natuurlijk kunt u bij het samenstellen en ontwerpen van semantiek een aantal problemen tegenkomen waarvoor andere programma's nodig zijn. Ontdek hoe u een semantische kern samenstelt: een grote catalogus met nuttige programma's.

Hoe stel je de semantische kern van een website correct samen?

Het ontwerpen van een semantische kern in de vorm van infographics

Voordat ik verder ging met een gedetailleerde beschrijving van het proces van het verzamelen van semantiek voor een website of blog, besloot ik in 2018 het artikel aan te vullen met een infographic, die alle belangrijke fasen van het ontwerpen van een semantische taal punt voor punt opsomt.

Infographics zijn slechts een korte “hervertelling” van alle acties! Je zult niet naar de infographics kunnen kijken en “alles begrijpen”; je moet het artikel lezen, of beter nog, het meerdere keren doen en het dan in de praktijk oefenen! De infographics zijn ontworpen om u voor te bereiden om alle informatie over het creëren van een semantische kern waar te nemen en eerst alles uit te zoeken.

En hier is ze eigenlijk:

Verzameling van strategische taal voor de site in de vorm van infographics

Je kunt het in normale kwaliteit openen door op “ Klik met de rechtermuisknop muis over de afbeelding” –> “Openen in nieuw tabblad” of .

Hoe verzamel ik snel een semantische kern met KeyCollector of SlovoYob? (UPD in 2017,2018)

Het hele proces zal dus uit verschillende punten bestaan:

  • we lanceren het programma (het maakt niet uit welke KeyCollector of SlovoEB, maar KeyCollector heeft de mogelijkheid om te verzamelen Zoek tips, waardoor de SA aanzienlijk wordt uitgebreid);
  • een project aanmaken;
  • we vinden de knoppen die in de schermafbeelding worden weergegeven en voeren onze zinnen in de geopende vensters in;
  • we wachten een tijdje terwijl het programma de sleutels ophaalt (je kunt veilig thee gaan drinken 🙂);
  • we verwijderen alle verzoeken die we niet nodig hebben (kopen, downloaden, vermelding van Russische steden, enz.);

  • we verzamelen de frequentie “!”, d.w.z. alleen exacte gebeurtenissen (in SlovoEB is dit “Lupa”, in KeyCollector staat de letter “D” voor Yandex.Direct);
  • we verwijderen alle nulverzoeken en verzoeken met een frequentie van 1 per maand (UPD in 2017 heb ik de aanpak gewijzigd);
  • UPD 10.2018 Nadat we alle zoekwoorden voor de eerste keer hebben geparseerd en de frequentie hebben verwijderd, nemen we de TOP 30-50 van de zoekopdrachten met de hoogste frequentie en beginnen we opnieuw met het ontleden van Wordstat en zoeksuggesties.
  • UPD 10.2018 na herhaaldelijk parseren moet je sleutels van Bukvarix en Keys.so toevoegen aan de bestaande verzoeken, ik heb hier meer over geschreven, lees zeker!
  • Daarna uploaden we alles naar Excel en gaan daar aan de slag.

We analyseren de semantische kern die door het programma is samengesteld

Nadat het programma is uitgevoerd, ontvangen we een groot aantal sleutels, die de semantische kern van onze site worden genoemd. Het is echter niet voldoende om de sleutels op te halen; ze moeten correct worden gesorteerd.

Om dit te doen, opent u Excel en sorteert u alles op het aantal verzoeken, te beginnen met de hoogfrequente verzoeken.

Omdat we Siamese katten als voorbeeld hebben genomen, gaan we in dezelfde geest verder.

Titel voor de site

Uit de zoekopdrachten met de hoogste frequentie (HF) stellen we de titel van onze site samen, waarbij we proberen zoveel mogelijk woorden uit aangrenzende HF-zoekopdrachten te gebruiken. Bijvoorbeeld: “Siamese katten: onderhoud, voeding en voortplanting.”

De titel van de site bevat de essentie van de hele bron, waar deze aan is gewijd. De titel moet de zoekopdrachten met de hoogste frequentie bevatten, maar gecombineerd in één leesbare zin . Je kunt niet zomaar alle HF-verzoeken op een rij proppen.

Als de meeste HF-zinnen bijvoorbeeld zijn:

  1. Siamese katten.
  2. Siamese katten voeren.
  3. Behandeling van Siamese katten.

Dan zal onze titel er ongeveer zo uitzien: “Siamese katten: voeding en behandeling.” We leggen dus het volledige bereik van zoekopdrachten voor alle drie de zinnen vast.

Belangrijk! U kunt zoekopdrachten niet scheiden met punten; u kunt komma's, dubbele punten, streepjes, rechte lijnen en schuine strepen gebruiken, d.w.z. alles, maar geen punten.

Semantiek groeperen - categorieën maken

Vervolgens is het proces van het ontwerpen van de semantische kern dat we proberen groepen te maken op basis van de verzamelde sleutels, bijvoorbeeld voor Siamese katten die ze kunnen vertegenwoordigen: zwangerschap van Siamese katten, wat Siamese katten moeten voeden, hoe Siamese katten moeten worden gehouden, enz. Ik denk dat het punt duidelijk is.

Om in groepen te verdelen, gebruiken we filters in Excel, waarbij we woorden invoeren, bijvoorbeeld: "Feeding", waarna alleen zinnen overblijven die dit woord bevatten. We kopiëren zinnen uit de ene groep naar een apart blad.

Nadat we alle woorden in groepen hebben verdeeld (elk bevindt zich op een eigen blad), krijgen we de zogenaamde rubrieken. Ik zou meteen willen opmerken dat het proces van het ontleden van de semantische kern in groepen, of zoals het ook wel wordt genoemd, het clusteren van zoekopdrachten, zeer arbeidsintensief is, maar het verdere succes van uw blog of website hangt ervan af.

UPD 10.2018 Ik raad het artikel over clustering () ten zeerste aan, omdat Sinds 2018, bij het ontwerpen, verzamelen en clusteren van de semantische kern, zijn mijn team en ik begonnen met het oefenen van een nieuwe benadering voor het degroeperen van zoekopdrachten. De nieuwe aanpak maakt het leven veel gemakkelijker en versnelt het proces.

We splitsen de kopjes op in artikelen

Nadat we de kopjes hebben gemaakt, bijvoorbeeld ‘Voeding’, ‘Inhoud’, ‘Reproductie’. Volgens hetzelfde principe, met behulp van filters in Excel, selecteren we sleutels voor toekomstige artikelen.

We zullen dus secties hebben die verschillende artikelen zullen bevatten, waaruit uw site over Siamese katten zal bestaan.

Werken met artikelsleutels

Wanneer je de gehele semantische kern volledig hebt uitgesplitst in Headings, en de Headings in Articles, zullen de artikelen zelf ook nog op volgorde moeten worden gezet. Om dit te doen, moeten de meest voorkomende zoekopdrachten worden omgezet in de titel van de artikelen zelf, volgens hetzelfde principe als we de titel van de site hebben gevormd.

Nadat we de titel hebben bepaald, verdelen we de sleutels in sleutels die eenvoudigweg in het artikel zullen verschijnen (minimale frequentie) en sleutels die subkoppen zullen zijn. Hoe vaker een zoekopdracht in de titel voorkomt, hoe waarschijnlijker het is dat het artikel verkeer voor deze sleutel verzamelt.

Belangrijk! Plaats niet het exacte voorkomen van de sleutel in de ondertitel, als deze onhandig is, bijvoorbeeld 'wat moet je Siamese katten voeren', maak ze 'menselijk', zelfs als een dergelijke zin niet in de semantische kern staat die je hebt verzameld , zal de ondertitel er nog steeds uitzien als “Wat moeten Siamese katten voeren?”. Dit geldt ook voor Titel.

De semantische kern is samengesteld!

Nadat we alle hierboven beschreven manipulaties hebben voltooid, zullen we een semantische kern voor onze site samenstellen, die ons ten eerste zal voorzien van een aanbod van onderwerpen voor artikelen voor onbepaalde tijd, en ten tweede ons een uitstekende impuls zal geven voor promotie, omdat een correct samengestelde semantische kern is de sleutel tot het succes van uw project!

Dus ik hoop dat ik de vraag heb kunnen beantwoorden hoe ik de semantische kern van een site correct met mijn eigen handen kan maken, uiteraard met behulp van het KeyCollector- of SlovoEB-programma.

Ten slotte wil ik advies geven: schrijf eerst minimaal één artikel voor elke sectie op uw site, of nog beter, schrijf 50-100 artikelen tegelijk en plaats ze in de wachtrij voor publicatie. Dit is nodig zodat je in de toekomst niet gedreven wordt door de noodzaak om een ​​artikel te schrijven op de toegewezen dag, omdat je artikelen moet schrijven op het moment dat de muze op bezoek komt, en het niet 'onder druk' moet doen.

Goedkope KeyCollector ( UPD Niet relevant 05.2018)

Hierboven zei ik dat ik 10% korting kan geven op de aankoop van KeCollector, dit is waar, ga naar en schrijf een brief met als onderwerp “10% korting op KeCollector” en ik zal je helpen :)

Als u de semantische kern niet zelf kunt samenstellen, dan kunt u dat ook doen (dit is relevant :)

Samenvatting

  1. We beslissen over een onderwerp.
  2. We schrijven op een stuk papier een paar woorden/zinnen die verband houden met het onderwerp en die het meest breed beschrijven.
  3. We gebruiken het KeCollector- of SlovoEB-programma om de semantische kern te verzamelen.
  4. We filteren en verwijderen onnodige en null-query's.
  5. Wij stellen de titel van de site samen.
  6. We splitsen de trefwoorden op in kopjes.
  7. We splitsen de kopjes op in artikelen.
  8. We structureren artikelen met tussenkopjes.

In het volgende artikel nr. 2 zal ik het hebben over.

Bekritiseer het artikel, stel vragen!