Panda van Google: wat is er nieuw? Google Panda - hoe het werkt en hoe u ermee kunt werken Updatedoelen van Google Panda.

Hallo, beste lezers van de blogsite. In dit bericht wil ik het even hebben over wat er op dit moment door mijn hoofd gaat. Eigenlijk zijn al mijn gedachten bezig met het probleem waar ik de afgelopen anderhalf jaar in terecht ben gekomen. Op de gegeven link vindt u een artikel waarin ik de huidige situatie beschrijf, inclusief correspondentie met technische ondersteuning van de RuNet-spiegel.

Gedurende de vier en een halve maand die zijn verstreken sinds de publicatie van die publicatie, heb ik om beurten (te beginnen met de eerste berichten voor 2009) gelezen en wijzigingen aangebracht (mogelijke spam in welke woorden dan ook verwijderd, en ook interne koppelingen tot redelijke limieten beperkt ) in 360 van mijn artikelen uit de 411 die momenteel bestaan. Enkele tientallen ervan waren volledig herschreven, vele tientallen hadden bijgewerkte screenshots, correcties, toevoegingen, enz.

Over het algemeen heb ik onvermoeibaar alles gedaan wat ik kon. Gedurende deze tijd werd een monsterlijk werkvermogen onthuld (ik werkte 12 uur per dag en slaagde erin gedurende deze tijd 2 tot 6 artikelen te produceren). De eerste positieve resultaten verschenen in termen van verbeterde posities en meer verkeer van Yandex en Google.

Maar ik word nog steeds gekweld door twijfels over welk Google-filter ik nu al anderhalf jaar gebruik: Panda of Penguin. In dit verband rijst de vraag: is het nodig om de moeite te nemen om spam-backlinks te selecteren en eraan toe te voegen Links afwijzen, zoals iedereen die aan Penguin heeft geleden, wordt geadviseerd te doen. En hoe kun je dit doen met 30.000 backs in Google Webmaster?

Versoepeling van filters van Yandex en Google

Zoals ik al zei, is de efficiëntie nu gewoon fenomenaal en het zou geweldig zijn om het toe te passen op iets anders dat nuttig en veelbelovend is, omdat er niet veel artikelen meer over zijn om te herwerken, en je er geen spam meer in kunt vinden, behalve misschien voor verschillende kleine dingen die ik corrigeer.

Jongens, ik bied meteen mijn excuses aan dat ik intolerant ‘verkeer’ zal blijven gebruiken, en niet het aantal bezoekers van die en die zoekmachine, omdat het op deze manier eigenlijk eenvoudiger en toegankelijker is (minder woorden, maar meer betekenis). Niets persoonlijks, gewoon zakelijk. Bedankt.

Op 25 september ontdekte ik dat ik ontving het verkeer van Yandex is twee tot drie keer zo groot dan normaal de laatste tijd.

Dit weerspiegelde ongeveer het volgende in het algemene beeld van de opkomst:

Ten eerste was het enigszins onverwacht, omdat ik me tegen die tijd volledig had neergelegd bij de huidige betreurenswaardige situatie en gewoon doorging met ploegen zonder speciale klachten over het resultaat. Bovendien was ik zelfs in de zomer soms bereid om te scheuren en te gooien vanwege de onmacht om iets ten goede te veranderen, maar nu stopte ik helemaal met trillen.

Ten tweede, omdat ik geen ervaring heb met het verlaten van filters, weet ik niet wat ik van de toekomstperspectieven moet denken. Niet al het verkeer op Yandex keerde terug, en ik stel mezelf gerust dat het niet onmiddellijk daalde, maar in de loop van verschillende ups.

Je kunt trouwens niet alleen door een heleboel links van de GS filteren (begin dit voorjaar ervoer ik een monsterlijke golf van enkele duizenden backlinks en ik was bij geen enkele betrokken). Ze kunnen ook proberen in te spelen op het gedrag, d.w.z. verslechteren de statistieken van zowel gebruikersgedrag in de zoekresultaten als op de site.

In hetzelfde voorjaar ontving ik bijvoorbeeld duizenden bezoekers van sommige sites met grappen, grappen en andere onzin, die moeilijk iets anders dan GS konden worden genoemd. Wat het was, is niet duidelijk. Toen de gebruiker bijvoorbeeld nog een grap ging lezen, kwam hij op mijn 404-pagina terecht en wist niet wat hij moest doen. We moesten zelfs rekening houden met dergelijke bezoekers om hun bouncepercentage op zijn minst enigszins te verlagen.

Penguin houdt zich nog steeds aan het principe van algemene updates van het filteralgoritme en je kunt alle updates duidelijk volgen (als je er moeite mee hebt). Nu lijkt het er trouwens op dat de volgende update naar versie 2.1 onderweg is, wat wordt bevestigd door de overeenkomstige discussies op de SEO-forums.

Panda is recentelijk onderdeel geworden van het algemene algoritme dat Google gebruikt voor de ranking, en hoogstwaarschijnlijk zullen er niet langer uitgesproken updates voor alle sites tegelijk zijn. Maar toch, als we een beetje teruggaan in de geschiedenis, kunnen we op basis van de datum van het begin van de verkeersdaling concluderen onder welk filter deze of gene bron viel.

Hoe u kunt bepalen onder welk Google-filter een site valt: Panda of Penguin

Dit is trouwens precies de methode die wordt voorgesteld door de burgerlijke onlinebron Barracuda, namelijk het product genaamd Panguin gereedschap .

Het probleem is dat deze dienst zal moeten bieden toegang tot statistieken van uw Google Analytics-teller, en hij zal de exacte datums van Panda- en Penguin-updates over de grafiek heen leggen die eruit is gescheurd, om te begrijpen wat precies uit dit duet je hulpbron heeft verlamd.

In eerste instantie dacht ik dat ik minstens twee redenen had om dit niet te doen:

  1. Ten eerste heb ik Analytics nog geen jaar, want voordat ik helemaal tevreden was, nou ja, de LI-teller is ook behoorlijk informatief.
  2. Ten tweede blijft Adsense ook aan mij hangen, en dit is geld waar je niemand mee moet vertrouwen. Maar even later herinnerde ik me dat Analytics, net als Metrica, de mogelijkheid heeft om gastaccounts aan te maken, die ik probeerde te gebruiken.

Over het algemeen ging ik naar de administratie in mijn hoofd Analytics-account en delegeerde ik de rechten om statistieken te bekijken en te analyseren naar mijn andere Google-account, waaraan helemaal niets is gekoppeld.

Daarna volgde ik in de browser waarin ik al geautoriseerd was onder dit niet erg belangrijke account de link "Inloggen op Analytics" op de Panguin Tool-pagina en werd mij gevraagd mijn wens te bevestigen om deze applicatie te voorzien van statistische gegevens van Analytics .

Ik vond het niet erg. Hierna werd mij gevraagd een specifieke balie te selecteren.

Nou ja, uiteindelijk zorgden ze voor het gewenste schema met releasedata voor Panda en Penguin, maar zoals ik hierboven al zei, ik heb deze teller nog niet zo lang geleden gehad en het is nog niet het begin van 2012.

Bepaal daarom welk filter heeft Google toegepast? naar mijn site, dus mislukt. Bovendien heb ik aan het einde van de lente en het begin van de zomer van dit jaar meestal de Analytics-code verwijderd om redenen die mij nu niet duidelijk zijn. De afname van het verkeer van Google in de lente van dit jaar lijkt geen verband te houden met Panda of Penguin.

Maar misschien heb jij meer geluk. In de grafiek en in de onderstaande tabellen kunt u ook statistieken zien over landingspagina's en over de zoekwoorden waar het verkeer vandaan kwam.

De tweede manier om te bepalen welk dier je heeft gebeten, is door naar indirecte tekens (tandafdrukken) te kijken. Er wordt bijvoorbeeld aangenomen dat wanneer je geraakt wordt door een pinguïn, je Posities dalen alleen voor individuele verzoeken, waarvan de bestemmingspagina's worden gespamd met slechte inkomende links.

Onder Panda zal er hoogstwaarschijnlijk een algemene daling van het verkeer optreden, alsof dat het geval zou zijn, hoewel er discussie bestaat over de juistheid van het gebruik van deze term. Mijn situatie lijkt in dit opzicht meer op de tweede optie.

Nu is de spam echter geëlimineerd, maar de veranderingen ten goede in Google begonnen pas na de beweging in Yandex. In dit opzicht blijf ik in het ongewisse over mijn verdere acties en de geschiktheid ervan.

Links afwijzen: hoe u Google op de hoogte stelt van slechte links naar uw site

Dit gebeurt op het tabblad 'Zoekverkeer' - 'Links naar uw site'. Boven de lijst vindt u drie knoppen waarmee u alle backings op Google kunt downloaden. Ik vind de laatste optie het beste, omdat deze wordt gesorteerd op de datum waarop de backlinks zijn verschenen.

Er wordt hier echter alleen informatie verstrekt over de 1000 domeinen waarvan de meeste backlinks op uw site zijn geplaatst. Afgaande op verschillende back-analysediensten zijn er links naar mijn blog vanaf drieduizend domeinen en hun totale aantal is meer dan dertigduizend beschikbaar op Google.

Maar dat is niet het punt. Laten we ons voorstellen dat ik deze URL's heb doorgenomen en met een hoge mate van waarschijnlijkheid die pagina's of zelfs hele domeinen heb geïdentificeerd die niet in mijn linkprofiel thuishoren. Nu hoeft u al deze rijkdom alleen nog maar in één bestand onder te brengen met de txt-extensie en een willekeurige naam die voor u geschikt is.

Wanneer u een bestand voor Disavow-links maakt, heeft u dit nodig houd je aan eenvoudige regels:

  1. De URL van elke nieuwe pagina of domein wordt op een aparte regel geschreven: http://plohoysite.ru/plohaystranichka.html
  2. Het domein wordt geregistreerd volgens het volgende principe: domein:plohoysite.com
  3. U kunt opmerkingen toevoegen, maar deze moeten worden voorafgegaan door een hekje (# - hekje)

Zodra je de lijst hebt opgesteld, ga je aan de slag naar de pagina Links afwijzen(Ik heb geen direct pad vanuit de webmasterinterface van Google gevonden, blijkbaar zijn ze bang dat ze deze tool zonder nadenken zullen gebruiken):

Selecteer de gewenste site uit de lijst en klik op de knop 'Links afwijzen'. U wordt gewaarschuwd voor de mogelijke negatieve gevolgen van deze actie, hoewel ik dergelijke recensies nog niet op de forums heb gezien, maar het is mogelijk dat degenen die hun lijsten hier hebben toegevoegd, geen verkeer meer van Google hebben gehad, en, zoals we weten, het is niet mogelijk om negatief te worden.

Overigens baart deze inscriptie mij persoonlijk zorgen, omdat ik de huidige situatie niet zou willen verergeren in plaats van verbeteren met overhaaste acties. Als u besluit om te experimenteren, wordt u op de volgende pagina gevraagd een voorbereid bestand met Disavow-links van uw computer te downloaden en ter beoordeling naar Google te sturen.

Maar het eenvoudigste is om geselecteerde URL's of domeinen in een kolom te plaatsen. Maar het moeilijkste is om deze zeer spamachtige en slechte backlinks eruit te filteren en Google vervolgens te vragen er geen rekening mee te houden.

De situatie wordt nog verergerd door het feit dat er geen duidelijke mening bestaat over de voordelen van deze actie, zelfs als u zeker weet dat uw site is getroffen door Penguin of dat er handmatige sancties aan zijn opgelegd. De meningen van de deskundigen waren verdeeld. Devaka heeft bijvoorbeeld, omwille van de zaken, zelfs elke back-up aan zijn blog toegevoegd aan Disavow-links, maar zag geen enkel resultaat, hoewel hij vreemd genoeg degene is die geneigd is tot het nut van deze tool.

Trouwens, bij het toepassen van handmatige sancties kan de situatie om onder het filter vandaan te komen zelfs nog eenvoudiger of liever sneller zijn. Handmatig toegepaste filters zijn nu te zien in Google Webmaster op het tabblad 'Zoekverkeer' - "Handmatige maatregelen".

In dit geval al een paar weken na het uploaden van de lijst naar Disavow-links en het indienen van een aanvraag voor herziening (zoals ik begrijp, kan dit nu op hetzelfde tabblad worden gedaan, en niet op een aparte, slim verborgen pagina, zoals vroeger voorheen), kan het filter worden verwijderd en keren de posities terug naar hun oorspronkelijke waarden.

Hoe u slechte backlinks selecteert om toe te voegen aan Disavow-links

In het geval van Pinguïn en het succesvol verwijderen van spamlinks zal behoorlijk lang moeten wachten op resultaten - tot de volgende update van dit algoritme. Het is mogelijk dat dit maanden, en misschien zelfs een jaar, gaat duren. Wil je de Disavow-links nog steeds proberen? Welnu, dan zal ik de punten die ik heb verzameld met u delen tijdens het zoeken naar een manier om deze lijst te maken.

Ik kon dit niet handmatig doen, niet vanwege de enorme hoeveelheid eentonig werk, maar omdat ik niet de juiste intuïtie heb om conclusies te trekken over het toevoegen van een bepaalde pagina of de hele pagina op basis van het uiterlijk ervan en de kleine statistische gegevens. gegevens die worden verzameld, toevoegen aan de lijst met onbetrouwbare gegevens.

Het is hier duidelijk automatisering nodig, die het kaf duidelijk van het koren moet scheiden en in geen geval ‘het kind met het badwater moet weggooien’. Uiteraard hebben we een aantal diensten nodig die, naast het kunnen verzamelen van alle linkmassa die naar uw site leidt, ook een kwaliteitsbeoordeling kunnen maken voor elk van de donoren.

Er zijn dergelijke services en veel webmasters, en nog meer optimizers, kennen ze. Een ander ding is dat je voor het analyseren van een groot aantal ruggen in deze diensten behoorlijk veel geld moet betalen. Bovendien, als je dergelijke middelen elke dag professioneel gebruikt, zal het geld de moeite waard zijn, maar voor onze taak zal het verspillend zijn, zo lijkt het mij.

Er was een publicatie over de zoekopdracht waarin een vertegenwoordiger van een van de grote SEO-bedrijven zijn ervaring deelde met het selecteren van kandidaten voor de Disavow-linklijst. Hij stelde voor om te gebruiken drie linkdiensten: bourgeois uit Moz genaamd Open Site Explorer, evenals binnenlandse Solomono (Linkpad) en Ahrefs.

Zoals ik het begrijp, hoef ik een maand lang niet te eten of te drinken om te betalen voor het controleren van mijn tienduizenden backlinks en het downloaden van alle gegevens daarover voor verdere analyse en verwerking. Natuurlijk heeft een groot SEO-bedrijf al deze betaalde pakketten al, omdat ze zichzelf volledig terugbetalen als ze voortdurend met tientallen of zelfs honderden klantprojecten werken.

Maar zijn methode is behoorlijk overtuigend. Een vriend stelt voor om donorkwaliteitsindicatoren te downloaden van Open Site Explorer, Solomono en Ahrefs. Ze worden respectievelijk Domain Authority, iGood en Ahrefs Domain Rank genoemd.

Plaats dit geheel vervolgens in één tabel en selecteer kandidaten voor Disavow-links op basis van het principe van de laagste wegingscoëfficiënten voor de kwaliteit van de donor in alle drie deze diensten samen. Hierdoor wordt de kans op fouten kleiner.

Helaas kunnen niet veel mensen zich zulke luxe veroorloven, ook al is dat zo iemand heeft dit uitbesteed, dan zou ik niet weigeren het tegen een redelijke vergoeding te gebruiken, maar tegelijkertijd zou ik niet alleen een lijst met kandidaten voor Disavow-links willen ontvangen, maar juist al deze downloads van Open Site Explorer, Solomono en Ahrefs, om om zelf de geldigheid van de getrokken conclusies te zien en dat ik me niet door de neus laat leiden.

De tweede optie die ik tegenkwam om te zoeken naar spam-backlinks in je linkprofiel was bij het gebruik van een betaald programma FastTrust van Alaich (beroemde blogger). Op de promotiesite van dit programma kwam ik eigenlijk een beschrijving tegen van het voorbereiden van een lijst met kandidaten voor verwijdering voor Disavow-links.

Alles lijkt geweldig. De prijs is 3.000 roebel, wat, hoewel een beetje duur, draaglijk is, vooral omdat het ook kan worden gekocht voor Profit Partner-bonussen, waarvan ik precies het juiste bedrag heb.

Maar! Ik heb de vereisten en wenselijke omstandigheden waaronder dit programma correct zal werken nader bekeken. Het bleek dat niet alles zo eenvoudig is:

Over het algemeen koelde dit mijn enthousiasme af en besefte ik dat het kopen van een programma nog steeds het halve werk was, en dat ik ook op zoek zou moeten gaan naar een proxy en geld in Ahrefs zou moeten investeren om het meest relevante resultaat te krijgen. En ik denk dat het behoorlijk wat tijd zal kosten om gegevens te verzamelen.

Daarom besloot ik een pauze te nemen en, voordat het uit mijn hoofd ging, al mijn huidige gedachten over Penguin- en Disavow-links in dit bericht op te schrijven, zodat ik er later op terug kon komen.

Nou ja, zoiets als dit, ongeveer. Wat denk je over het filter dat Google op ktonanovenkogo heeft toegepast? Is het Panda of Pinguïn? Is het de moeite waard om je bezig te houden met Disavow-links? Als dat zo is, hoe kunnen we dan de onzinruggen isoleren?

Veel geluk voor jou! Tot binnenkort op de pagina's van de blogsite

Misschien ben je geïnteresseerd

Een website uitsluiten van het Google Penguin-filter - stap-voor-stap handleiding Waarom u kunt worden verbannen uit Yandex, onder de AGS of een voetdoekfilter kunt vallen, en hoe u aan deze sancties kunt ontsnappen
GoGetLinks - eeuwige links voor websitepromotie en inkomsten op de GoGetLinks-uitwisseling voor webmasters
Statistieken van zoekopdrachten van Yandex, Google en Rambler, hoe en waarom met Wordstat werken
Ontcijferen en uitleggen van SEO-afkortingen, termen en jargon
SEO-terminologie, acroniemen en jargon
Online diensten voor webmasters - alles wat u nodig heeft om artikelen te schrijven, zoekmachineoptimalisatie te doen en het succes ervan te analyseren
Methoden voor het optimaliseren van de inhoud en het rekening houden met het thema van de site tijdens linkpromotie om de kosten te minimaliseren
Rel Nofollow en Noindex - hoe u kunt voorkomen dat externe links op een website worden geïndexeerd door Yandex en Google

Het is bekend dat het Google Panda-algoritme een reeks zoekmachine-updates is die erop gericht zijn de relevantie van pagina's in de zoekresultaten te vergroten. Om dit te doen, wordt rekening gehouden met ongeveer honderd verschillende factoren. Als resultaat van de analyse worden sites met inhoud van lage kwaliteit en uitgesproken overoptimalisatie lager weergegeven in de zoekresultaten.

Het Panda-algoritme besteedt speciale aandacht aan interne factoren, voornamelijk tekstinhoud. Er wordt rekening gehouden met het volume, het unieke karakter ervan, de mate van spam met sleutels, enz. Panda vormt dus een aanvulling op een ander Google-algoritme: Penguin, dat verantwoordelijk is voor de externe rankingfactoren van sites.

Er wordt ook rekening gehouden met het faalpercentage, de logische structuur van de site en de juistheid van de koppeling.

Het is natuurlijk beter om nauwe kennismaking met "Panda" te vermijden. Maar als de site toch onder het filter valt, is het belangrijk om daar tijdig achter te komen. Het is onmogelijk om dit feit op betrouwbare wijze vast te stellen, omdat er geen informatie is over de releasedatum van Google Panda-updates. Maar indirect bewijs dat je onder het filter valt, zal een afname van het aantal bezoekers van Google PS zijn. Het is vermeldenswaard dat het filter op de hele site wordt toegepast. Daarom is het bij het uitvoeren van uitvoerwerk noodzakelijk om aandacht te besteden aan de bron als geheel.

Hoe bepaal ik of een site onder het “Panda”-filter van Google valt?

Gebruik een dienst om de uniciteit van teksten te controleren - bijvoorbeeld WebSite Auditor, Advego Plagiatus of een andere dienst die voor u beschikbaar is, maar tegelijkertijd correct is. Het is noodzakelijk om de uniciteit van alle documenten op de site te bepalen. Als het grootste deel van de inhoud (20% of meer) uit andere bronnen wordt gekopieerd, raden we aan maatregelen te nemen om probleemgebieden op unieke wijze te identificeren.

  1. Wij kijken naar de betekenis van de inhoud. Gebruikers moeten op de pagina het antwoord vinden dat ze nodig hebben op hun vraag. Alle pagina's moeten ook de Google-filtercontrole voor deze parameter doorstaan.
    • Het is noodzakelijk om de pagina's van de site te vullen met de meest informatieve en gedetailleerde inhoud: tekst, afbeeldingen, media. Panda evalueert niet alleen de tekstrelevantie, maar ook de algehele inhoud van de pagina.
    • Dubbele inhoud die het Google Panda-algoritme niet tolereert, moet worden verwijderd.
  2. U moet de teksten controleren op een overvloed aan trefwoorden. 'Panda' wordt opgelegd wegens overmatig spammen.
  3. Houd bij het voorbereiden van nieuwe kwaliteitsinhoud voor uw site rekening met hoe betrokken gebruikers zijn, op basis van statistieken van de analysesystemen van Google.
  4. Het is noodzakelijk om de juiste structuur van de site te behouden met logische koppelingen van interne pagina's.

Hoe kun je voorkomen dat je interessant bent voor het Google Panda-algoritme?

Allereerst moet u een volledige audit van de site uitvoeren en bepalen waardoor het filter kan worden toegepast. Vervolgens kunt u beginnen met het elimineren van de tekortkomingen.

  1. Besteed speciale aandacht aan de inhoud. Het tekstvolume moet groter zijn dan 400 tekens. Om te voorkomen dat je onder het Panda-filter van Google valt, is het net zo belangrijk om de tekst te bewerken: deze moet betekenisvol, leesbaar en uniek zijn. Dubbele pagina's moeten worden verwijderd. Je moet ook de tekst zelf, evenals de koppen en metatags, opruimen van onnodige sleutels. Het is belangrijk dat de site voldoende gevuld is met informatie die nuttig is voor bezoekers (bijvoorbeeld nieuws, artikelen, vraag- en antwoordrubrieken, enz.).
  2. Bouw de juiste websitestructuur. Dit is een belangrijke vereiste voor een goede paginakoppeling. Het is ook belangrijk om alle technische fouten van de site te corrigeren.
  3. Weg met irrelevante reclame. Als een pagina agressieve pop-ups, pop-ups en clickers bevat, zelfs als deze over het onderwerp gaat, kunt u er zeker van zijn dat het slechts een kwestie van tijd is voordat Google Pandas geïnteresseerd raakt. Bepaal zelf of de potentiële voordelen van dergelijke advertenties de risico's waard zijn.
  4. Bepaal de gezondheid van links (zowel extern als intern). Een plug-in is hiervoor perfect. Checker voor gebroken links of dienst Netpeak Spider. Het zou geen kwaad om extra navigatie toe te voegen.

Het belangrijkste om te onthouden is dat het doel van het Panda-algoritme het blokkeren van slechte inhoud is. Google Panda houdt van veel unieke inhoud. Hoe meer dit is, hoe groter de kans dat het filter wordt verwijderd. U hoeft de pagina's alleen maar periodiek te indexeren.

Dit zijn de belangrijkste aanbevelingen waarmee u sancties van Google kunt vermijden. Ze kunnen als basis worden gebruikt in de fase van het maken van een website, het invullen ervan en het promoten ervan. Hoe meer inhoud een webbron heeft, hoe minder deze wordt bedreigd door dit algoritme. Dienovereenkomstig zullen de posities in de zoekresultaten uiterst stabiel zijn.

Als een site onder het filter valt, kan deze zich tot de volgende update niet meer bevrijden van de invloed van Google Panda. Daarom is het beter om problemen te voorkomen dan ze later op te lossen.

Nuttig 1

Lang geleden, in een sterrenstelsel ver, ver weg, creëerde de Google-zoekmachine een algoritme met de naam Panda. Dit algoritme is ontwikkeld door slechts twee mensen: Amit Singal en Matt Kats. Dit algoritme verschilt van zijn tegenhangers doordat het in de eerste plaats is ontworpen voor de menselijke factor. Het algoritme houdt ook rekening met andere factoren bij het rangschikken van een site.

In dit materiaal hebben we geprobeerd alles te verzamelen wat verband kan houden met het Google Panda-algoritme, hoe we het kunnen identificeren en hoe we er niet onder kunnen vallen om succesvol te kunnen zijn de site promoten.

Waar houdt het Google Panda-algoritme rekening mee?

Is de inhoud op de site uniek?

Het Panda-algoritme let allereerst op of dezelfde inhoud op andere sites wordt aangetroffen. Bovendien zoekt het niet alleen naar soortgelijke teksten op sites of pagina's, maar ook naar fragmenten van teksten. Met andere woorden, de uniciteit van de tekst wordt bepaald aan de hand van een percentage. Laten we zeggen dat als het artikel in zijn geheel is gekopieerd, het unieke karakter nul is. Als een deel van de tekst wordt gekopieerd, kan de uniciteit bijvoorbeeld 80% bedragen.

Het algoritme berekent de uniciteit zowel de site zelf als een individuele pagina, ook in relatie tot andere pagina's van de site. Daarnaast is het Panda-algoritme gewapend met een tool als sjablonen. Met andere woorden: het kan vergelijkbare pagina's op verschillende sites identificeren, zelfs als deze met verschillende trefwoorden worden gepromoot.

Bovendien dit het algoritme besteedt ook aandacht aan reclame. Als een website die juridische diensten levert advertenties van concurrenten bevat, registreert het algoritme dit en houdt hier rekening mee bij het rangschikken van de site.

De taak van zoekmachines is om de gebruiker antwoord te geven op zijn vraag. De taak van het Panda-algoritme is om de eigenaren van sites die alleen maar geld willen verdienen een beetje met de grond gelijk te maken. Over het algemeen is het doel van dit algoritme vreselijk eenvoudig. Zoekresultaten mogen alleen unieke, relevante en nuttige sites bevatten. Hier is een voorbeeld, hoe je goede educatieve inhoud maakt.

Aantal en kwaliteit van links (linkprofiel)

Het algoritme houdt ook rekening met links. Bovendien houdt het rekening met alle links, zowel inkomend als uitgaand. Er is slechts één vereiste: beide sites moeten over hetzelfde onderwerp gaan. Uiteraard houdt het algoritme het aantal inkomende en uitgaande links bij, maar dit is niet de belangrijkste factor bij het rangschikken van een site. Het eerste dat hem interesseert, is de menselijke factor. Met andere woorden, het houdt de gebruiker op de site nauwlettend in de gaten. Wat doet hij, hoeveel tijd besteedt hij, leest hij de stof, vult hij formulieren in, enzovoort. Uiteraard hebben de ontwikkelaars uitstekend werk verricht bij het maken en testen van dit algoritme. In wezen vereiste dit algoritme het polijsten van andere algoritmen, zodat de zoekmachine alleen sites van hoge kwaliteit kon retourneren.

Wanneer u dit algoritme introduceert bij het rangschikken van een site, naar de TOP van de zoekresultaten gaan Alleen echt nuttige en hoogwaardige sites kunnen dat. Het is dit algoritme dat van de Google-zoekmachine een krachtig zoekinstrument heeft gemaakt. Dit wordt bevestigd door het feit dat het publiek van Google exponentieel groeit. Bovendien groeit ook het budget van het bedrijf met grote sprongen. Je kunt de gebruiker immers nog steeds misleiden met zogenaamde zwarte promotiemethoden. Verschillende functies en agressieve reclame. Maar de investeerder laat zich niet misleiden, en hij weet en beseft heel goed dat Google een winstgevende onderneming is.

Natuurlijk is een dergelijke groei van het bedrijf niet het resultaat van slechts één algoritme. Laten we nu terugkeren naar het onderwerp van het artikel.

Gedragsfactoren

Deze indicator omvat een aantal criteria, zoals:

  • bouncepercentage;
  • hoeveel tijd iemand in één sessie op de site doorbrengt;
  • hoeveel pagina's hij tijdens één bezoek heeft bezocht;
  • of hij terugkeert naar de site en hoe vaak;
  • hoe lang de site in de zoekresultaten wordt weergegeven en hoeveel mensen de link volgen (CTR).

Het algoritme houdt dit allemaal bij, en doet dit voor elke gebruiker. Dat wil zeggen, hij houdt elke bezoeker in de gaten en kijkt zorgvuldig naar wat hij doet, of hij links volgt, formulieren invult, naar beneden scrollt op de pagina of niet, enzovoort. Het algoritme bepaalt dus of de site of een afzonderlijke pagina reageert op de vragen van de gebruiker en of de gebruiker het antwoord op de ingevoerde zoekopdracht in de zoekbalk vindt.

Hoe begrijp je dat een site onder het Panda-filter valt en wat moet je doen?

  1. Een scherpe daling in het verkeer. Als u merkt dat het aantal conversies van Google sterk is gedaald, kan een van de mogelijke redenen Panda zijn en technische problemen met de site die niet zijn geïdentificeerd:
    — trage serverreactie;
    — onbeschikbaarheid van pagina's en andere.
    Om dit te controleren, analyseert u dit zorgvuldig Google Analytics En Zoekconsole.
  2. Wees voorzichtig met koppelingen. Hoewel links voor Google belangrijke rankingfactoren blijven, moet u er niet te veel aandacht aan besteden, omdat de zoekmachine al lang heeft geleerd om natuurlijke links van gekochte links te onderscheiden, en om onnatuurlijke linkmassagroei te identificeren.
  3. Slechte teksten. Teksten geschreven in niet-menselijke taal, met veel spelfouten, kort, niet uniek en geplaatst in de vorm van een krantenpagina zullen elke site doden, omdat ze voor Panda als signaal dienen om de site lager in de zoekresultaten te plaatsen.
    Wat te doen? Schrijf hoogwaardige, unieke inhoud die nuttig is voor gebruikers, controleer deze zorgvuldig en bewerk deze.
  4. Geen video of foto's. Als je de inhoud van artikelen en websitepagina’s niet verdunt met afbeeldingen, infographics en video’s, dan heeft de aandacht van de lezer eenvoudigweg niets te pakken en als het slecht is voor de gebruiker, dan vindt Panda het niet leuk.
    Voeg meer geoptimaliseerde foto's en video's toe door attributen in te vullen alt en titel.
  5. Weinig interne links. Nadat de gebruiker de site heeft betreden, moet hij er gemakkelijk en vrij doorheen kunnen navigeren, terwijl hij precies die pagina's bezoekt die hij verwachtte te zien. En hier is het erg belangrijk om competente interne links te maken, waardoor u naar dergelijke pagina's kunt gaan. Een andere geweldige oplossing zou zijn om widgets te plaatsen met de nieuwste blogberichten, de populairste artikelen en de meest interessante secties.

En onthoud: “Je kunt Panda beter niet boos maken!”

Hallo lezers. Vandaag publiceer ik weer een interessant artikel over een urgent onderwerp -. Velen herinneren zich vast dat de machtige Google op 24 februari van dit jaar een nieuw algoritme heeft geïntroduceerd, met als doel sites volgens een nieuw schema te rangschikken.

Dit wil natuurlijk niet zeggen dat het nieuwe algoritme alle sites uit de zoekresultaten heeft verwijderd, maar 12% van alle zoekresultaten is herzien, en niet ten goede voor site-eigenaren. Het resultaat van het gebruik van Google Panda was onmogelijk om niet op te merken. Op veel sites is het verkeer van Google met de helft gedaald. Velen hebben zelfs nog meer.

Misschien heb je het effect van dit algoritme nog niet gevoeld, maar je moet je niet van tevoren verheugen. Het is nooit te laat om in de klauwen van Google Panda te vallen. In dit artikel zal ik het hebben over het algoritme zelf, en hoe het kan worden omzeild.

Beantwoord de vraag: bent u er klaar voor dat op een mooie dag het SE-verkeer op uw site precies de helft zal bedragen? Zo niet, dan kan ik u verzekeren dat niemand immuun is voor een dergelijke verrassing. Maar laten we eerst eens kijken hoe u kunt vaststellen dat uw site wordt aangevallen door Google Panda

Hoe u kunt bepalen of een site onder een filter valtGooglenPanda?

Over het algemeen kunt u verschillende statistische systemen gebruiken, maar u kunt het beste Google Analytics gebruiken Het is dit statistische systeem dat direct aan de zijlijn van Google PS is ontwikkeld, en niemand anders geeft de statistieken van Google zo nauwkeurig weer.

Velen die Engelstalige sites hebben die in Amerikaanse zoekresultaten worden weergegeven, hebben ongetwijfeld de impact van Panda op hun sites kunnen voelen. Hieronder laat ik zien hoe catastrofaal de schade veroorzaakt door Google Panda is. Maar daarnaast zullen we bekijken hoe u kunt identificeren dat er een filter op uw site wordt toegepast, en zoeken naar manieren om het probleem op te lossen.

Uiteraard bereikte Google Panda de Amerikaanse zoekresultaten als eerste. In het Russische Google is alles veel eenvoudiger, zulke strikte beperkingen bestaan ​​niet, maar toch raad ik je aan dit artikel te lezen om voorbereid te zijn op het nieuwe algoritme.

Nou, nu ter zake. Het allereerste dat we moeten doen, is inloggen op uw Google Analytics-account. Niet alle jongens die bij RuNet werken hebben sites gericht op de VS, dus als je inlogt op je GA-account en ziet wat er in de onderstaande schermafbeelding staat, zou je kunnen denken dat alles in orde is en dat Google Panda je heeft omzeild:

Maar eigenlijk is dit slechts de eerste indruk. In feite is alles veel ingewikkelder en moet je hier dieper graven. Ga in uw Google Analytics-account naar het tabblad ‘Verkeersbronnen’ en vervolgens naar ‘Zoekmachines’. Selecteer vervolgens niet-betaald (niet betaald):

Hier ziet u de uitsplitsing per zoekmachine. De pijl geeft de Google-zoekmachine aan. Klik hier. Dit is nodig om verkeersstatistieken exclusief voor deze zoekmachine te kunnen zien.

Klik vervolgens op het tabblad ‘Zoekwoorden’. In de schermafbeelding zie je het in een groen kader. Zo’n groot menu verschijnt, zoals hieronder in de screenshot te zien is. Selecteer in dit menu “Land/gebied”. Dit element wordt gemarkeerd in een rood kader. Dit doen we om gegevens te filteren op specifiek land. Klik op dit element:

Hier in de schermafbeelding kun je duidelijk zien dat vanaf 24 februari het verkeer vanuit Google Zoeken aanzienlijk is gedaald. Meer dan 50%. Vertel me eens, is dit de reden voor de stoornis?

We kijken naar het linkermenu. Hier selecteren wij Geavanceerde segmenten, en daarna creëren we een nieuw segment. In dit segment specificeren we de volgende instellingen:

Je kunt dit segment noemen hoe je wilt. Hier heet het bijvoorbeeld ‘G US biologisch’. Laten we nu dit segment opslaan. Verder hebben al onze gegevens alleen betrekking op bezoekers die naar onze site komen via de organische zoekresultaten in de VS, via de zoekmachine van Google.

Over het algemeen is dit voorlopig allemaal alleen maar in woorden. Laten we in de eerste plaats proberen te begrijpen waarom Google Panda überhaupt nodig is. Het belangrijkste doel van Google Panda is het opschonen van de resultaten van RUG-sites.

Matt Cutts zei dat Google Panda het volgende zal bereiken:

    Sites met veel nutteloze inhoud

    Sites vol met copy-paste

Dit alles is nodig om plaats te maken voor de top voor sites van hoge kwaliteit met originele en interessante inhoud, sites die niet volledig zijn gevuld met advertenties.

Uiteraard zal GS als eerste last hebben van het Google Panda-filter. Maar het filter is onvolmaakt, dus de makers van het filter zijn zich er terdege van bewust dat normale sites er ook last van kunnen hebben, en daarom kun je, als er zich problemen voordoen, veilig contact met hen opnemen via feedback.

Trouwens, in dit voorbeeld beschouwen we een normale site - SDL, en niet een soort UG. De basis van deze site zijn hoogwaardige artikelen geschreven door diverse deskundigen. Daarnaast is er een dienst als Vraag en Antwoord (vraag en antwoord) aan de site gekoppeld, waar alle deelnemers antwoorden op hun vragen kunnen vinden. Ja, vraag- en antwoorddiensten kunnen in theorie een doelwit zijn voor Google Panda, omdat de pagina's van dergelijke diensten vaak weinig inhoud bevatten. Maar er zijn feiten waarin Google Panda ook sites met normale inhoud heeft neergehaald waar geen forums of andere diensten zoals vraag-en-antwoord zijn.

Wanneer u “gedekt” kunt zijnGooglenPanda?

Natuurlijk heeft geen van de Google Panda-ontwikkelaars (Matt Kats en Amit Singal) het geheim onthuld, maar toch kunnen uit hun interview met het tijdschrift Wired bepaalde conclusies worden getrokken over de nuances van de werking van dit filter

Hieronder vindt u een lijst met mogelijke factoren die u in gevaar kunnen brengen:GooglenPanda:

    Een grote hoeveelheid copy-paste. Volgens observaties is het ergste dat de hele site, en niet de afzonderlijke pagina's, kan worden gepessimiseerd voor kopiëren en plakken

    Aanzienlijke prevalentie van niet-unieke inhoud op de site ten opzichte van unieke inhoud

    Irrelevantie van de pagina voor de zoekopdrachten waarvoor deze wordt gepromoot of in de zoekresultaten staat

    De pagina opnieuw optimaliseren

    Hoog bouncepercentage

    Weinig tijd die gebruikers op de site doorbrengen

    Laag rendementspercentage

    Veel links van lage kwaliteit op de pagina's. Lage kwaliteit, in de zin van niet-thematisch en links die leiden naar expliciete GS

Oké, als jouw site maar aan één van deze punten voldoet, is dat geen probleem. Maar als het velen past, kan dit de reden zijn voor de staking van Google Panda. Je moet trouwens leren onderscheid te maken tussen straffen en een verbod in het algemeen. En uw site zal in de problemen komen totdat u de kwaliteit ervan naar een nieuw niveau tilt. Google Panda is een zeer serieus algoritme, en als uw site meerdere pagina's met expliciete G heeft, kan dit de reden zijn voor het 'zinken' van de hele site, hoewel alle andere pagina's van de site inhoud van hoge kwaliteit kunnen hebben.

Het is mogelijk om te zien hoe het filter is toegepast: op siteniveau of op paginaniveau

Als het filter op de hele site is toegepast, zul je het waarschijnlijk met het blote oog zien, omdat het alle pagina's van de site beïnvloedt. Als u ons voorbeeld gebruikt, kunt u de 'G US organische'-rapporten gebruiken en dit zien...

Ga naar Inhoud > Topbestemmingspagina's. Zonder commentaar is alles duidelijk:

Dit zijn statistieken voor landingspagina's. Dat wil zeggen, voor individuele pagina's. Er zijn er 4272. Om erachter te komen of alle pagina's getroffen zijn door Google Panda, moeten we een beetje sleutelen aan de rapporten in Google Analytics:

    We moeten een rapport maken over de pagina's die voor ons het belangrijkst zijn

    We moeten een rapport maken over groepen pagina's. U kunt sorteren op URL. Selecteer bijvoorbeeld alleen pagina's die het woord forum bevatten

Dit gebeurt eenvoudig:

Hierboven heb ik gesproken over hoe Google Panda een filter op de hele site toepast. Deze mening zweeft in ieder geval rond op de forums. Maar toen ik verschillende sites analyseerde volgens de filters die ik hierboven heb beschreven, kwam ik tot de conclusie dat Google Panda niet de hele site filtert, maar alleen op paginaniveau, wat betekent dat niet alles zo eng is als het aanvankelijk was. leek.

Analyseer welk type pagina's worden gefilterdGooglenPanda

In het geval dat u al een klap in het gezicht heeft gekregen van Google Panda, analyseer dan uw site volgens de filters die ik hierboven heb verstrekt. Hierdoor weet u welk type pagina's worden gefilterd. Ik heb interessante feiten gevonden. Het feit dat het filter ‘zware’ pagina’s meeneemt, met veel content, is bijvoorbeeld uniek overigens. En ik zag veel pagina's met enkele duizenden karakters aan inhoud, en toch vielen dergelijke pagina's onder het filter. Oorzaak? Er stonden simpelweg te veel advertenties op deze pagina's. Op sommige sites is het verkeer van Google juist toegenomen. En ze hadden ook reclame, maar daar was veel minder van. Dit is uiteraard geen volledige lijst van alle acties die moeten worden gedetecteerd of beschermd tegen Google Panda. Op sommige sites die onder Google Panda vielen, werden absoluut alle advertenties verwijderd. Het is waar dat er tot nu toe geen significante veranderingen zijn opgemerkt. Er is te weinig tijd verstreken om conclusies te trekken

microdistrict Tsjernaya Rechka, 15 Rusland, Sint-Petersburg 8 812 497 19 87

Google Panda-algoritme: Google Panda-updates 2018


DEEL

De Google Panda-update heeft de wereld van SEO veranderd.

Cool, zo niet, maar lees dit artikel beter, het zal nuttig zijn om te weten wat er is veranderd met de introductie van het Google Panda-algoritme en hoe u kunt voorkomen dat u wordt gedegradeerd in de zoekresultaten van Google.

Google Panda-update. SEO-hulp

Bekijk de infographic om aan de slag te gaan.


Waar het allemaal begon.

VÓÓR Panda begon SEO enigszins op een ‘vuile zaak’ te lijken, en sites van hoge kwaliteit wonnen niet altijd in de ranglijst.

Naarmate er steeds meer irrelevante sites, plagiaatsites en sites met slechte inhoud opdoken, begonnen ze de goede sites in de zoekresultaten te overtreffen.

Google had een nieuwe update nodig om spam tegen te gaan.

Google Panda-update. Wat is het en wat doet het?

Panda zal waarschijnlijk de geschiedenis ingaan als een van de bekendste updates van Google.

Het belangrijkste doel van Panda was om de gebruikerservaring te verbeteren door spampagina's uit de topzoekposities te verwijderen.

De nieuwe update en het nieuwe algoritme hielden rekening met de reputatie, het ontwerp, de laadsnelheid en de gebruikersinterface van de site om mensen een betere ervaring te bieden.

Hoe de Google Panda-update websites beïnvloedde

Het Panda-effect was verstrekkend en wordt nog steeds door velen gevoeld.

De eerste update in 2011 had betrekking op ongeveer 12% van de zoekopdrachten, wat betekent dat 12% van de Google-ranglijst dramatisch veranderde.

Dit werd vooral gevoeld door grote contentfarms, waaronder About.com, eHow, Demand Media en Yahoo's Associated Content.

Meer dan 80% van de sites die negatief zijn beïnvloed door de Panda-update kampen nog steeds met verliezen.

Updatetijdlijn van Google Panda

Panda wordt sinds de introductie in 2011 regelmatig bijgewerkt.

De update vindt plaats wanneer Google alle sites op internet doorzoekt en deze test aan de hand van het Panda-algoritme. De update is een daadwerkelijke wijziging van het Panda-algoritme.

Zo werd het Google Panda-algoritme bijgewerkt van 24 februari 2011 tot 17 juli 2015.

Google Panda-updatedoelen

Tijdens veel van de wijzigingen hebben de updates van Panda zich gericht op het verwijderen van inhoud van lage kwaliteit uit de zoekresultaten van gebruikers.

De problemen die het aanpakt zijn onder meer:

  • Slechte inhoud - pagina's met zwakke of weinig inhoud; als je meerdere pagina's hebt met elk een paar zinnen, zal dat hoogstwaarschijnlijk zo zijngeclassificeerd als slechte inhoud. Als het maar één of twee pagina's zijn, is alles in orde. Maar als de hele site er zo uitziet, dan is dit een rode vlag.
  • Dubbele inhoud is inhoud die wordt herhaald. Dit kan inhoud zijn die is gekopieerd van andere pagina's op internet of die met kleine tekstwijzigingen op meerdere pagina's van uw site wordt weergegeven.
  • Slechte inhoud is elke inhoud die onvoldoende informatie bevat.
  • Machinegegenereerde of automatisch gegenereerde inhoud is alle inhoud die automatisch wordt gegenereerd door speciale algoritmen, applicaties of andere bronnen waarbij geen mensen betrokken zijn.
  • Slechte stijl - te veel merkbare fouten in stijl en grammatica.
  • Te veel onderwerpen op één site -als uw site geen duidelijk thema heeft en meerdere onderwerpen bestrijkt in plaats van zich op één ding te concentreren
  • Gebrek aan gezaghebbende mening - inhoud uit niet-geverifieerde bronnen
  • Te veel 404-fouten of omleidingen
  • Keyword Stuffing - Veel trefwoorden invoeren in een poging de ranglijst te manipuleren
  • Contentfarms - een groot aantal korte pagina's van lage kwaliteit
  • Te veel advertenties - als er meer advertenties op de pagina staan ​​dan nuttige tekst.
  • Affiliatelinks van lage kwaliteit zijn inhoud van lage kwaliteit die naar partnerpagina's leiden.
  • Inhoud die niet overeenkomt met zoekopdrachten: pagina's die onjuiste informatie weergeven.
  • Sites geblokkeerd door gebruiker - sites geblokkeerd door gebruikers via extensies.

Hoe Google Panda-updates uw SEO-strategie beïnvloedden

De effecten van de Panda-update waren voelbaar in de hele marketingwereld en de implementatie ervan leidde tot een aanzienlijke verschuiving in SEO.

Kortom, optimizers moeten zich nu concentrerenover het gemak van de site-interface voor zijn bezoekers.

Eerder het belangrijkste doel van SEO was ervoor te zorgen dat de inhoud toegankelijk was voor zoekmachines en relevant was voor de benodigde zoekopdrachtenhet toevoegen van de nodige trefwoorden en het opbouwen van een linkmassa die naar de nodige gepromote pagina's leidt.

Nu de gebruiker staat centraal,en niet op algoritmen van zoekmachines.

Hierbij wordt de nadruk gelegd op kwaliteit boven kwantiteit.

Veel mensen dachten bijvoorbeeld dat de manier om op nummer 1 te komen op Google was door elke dag inhoud te posten, zodat Google deze voortdurend zou indexeren.

Maar dankzij Panda kun je, als je alleen maar blogt om het bloggen, meer kwaad dan goed doen. Elk artikel dat u publiceert, moet van hoge kwaliteit zijn, uniek zijn en de lezers de antwoorden en informatie bieden die ze nodig hebben.

Hoogwaardige inhoud, ontwerp en bruikbaarheid = welverdiend, hoge rang.

Om de eerste plaats te behalen, moet je deze verdienen.

Een citaat van een Google-woordvoerder vat het samen: "Contentmakers moeten zich geen zorgen maken over hoeveel bezoekers ze per dag hadden, maar over hoeveel bezoekers ze hebben geholpen."

Hoe weet u of u last heeft van een Google Panda-update?

Het meest voor de hand liggende waarschuwingssignaal is een plotselinge verkeersdaling.

Als dit met uw site is gebeurd tijdens een bekende algoritme-update, heeft u waarschijnlijk een Panda-straf opgelegd gekregen.

Een andere manier om dit te bepalen is door naar de algehele kwaliteit van uw site te kijken. Zet uw roze bril af en beantwoord uw vragen.

  • Zijn uw bouncepercentages hoog?
  • Wordt uw inhoud gedeeld en ontvangt u opmerkingen?
  • Zijn de navigatie en links gemakkelijk te gebruiken?
  • Controleer de algehele kwaliteit van de site.Als je twijfelt, doet Google dat uiteraard ook ;)

Ben je gewond geraakt door Panda? Hoe je jezelf kunt rehabiliteren

Eerste stap: raak niet in paniek. Ga in plaats daarvan aan het werk.

Panda-updates vinden ongeveer één keer per maand plaats, zodat u wat tijd heeft om te werken.

Als u tussen de updates door de juiste stappen onderneemt, zult u enkele verbeteringen in uw ranking zien. Soms zal Google al uw wijzigingen opnieuw bijwerken.

Nu naar de details. Wanneer Panda toeslaat, moet je herstellen via inhoud.

Hoe Panda uw inhoud controleert

Omdat het bij Panda allemaal om kwaliteitsinhoud gaat, moet u hier beginnen.

Allereerst: verwijder niet alle inhoud, zelfs inhoud van lage kwaliteit, in één keer. Het is beter om de bestaande te corrigeren en toe te voegen wat eraan ontbreekt.

Als je alles weghaalt, kun je het nog erger maken.

Als je twijfelt over de kwaliteit van een pagina, ga dan naar je statistieken. Pagina's met hoge bouncepercentages en weinig tijd die op iemands site wordt doorgebracht, geven aan dat er duidelijke problemen zijn met de inhoud.

Als je het niet zeker weet, dan

De lijst is behoorlijk indrukwekkend))

Begin daarom met de pagina's die in de TOP staan ​​en het meeste verkeer genereren. Om erachter te komen welke pagina’s dit zijn (als je dat nog niet weet), kijk dan bij de analytics (je kunt Google Analytics gebruiken).

Naast uw eigen inhoud is het belangrijk om te controleren wat sitegebruikers schrijven.

Niet alle door gebruikers geschreven inhoud is slecht, maar deze voldoet aan dezelfde kwaliteitsnormen als alle andere inhoud op uw site.

Besteed speciale aandacht aan de kwaliteit als uw site forums bevat en er veel reacties zijn.

Het algoritme beschouwt opmerkingen als onderdeel van uw inhoud. Als deze opmerkingen naast de inhoud ook nuttige informatie bevatten, kan dit een goede aanvulling op uw site zijn.

En reacties van lage kwaliteit kunnen uw site beschadigen. Maar verwijder reacties niet volledig. Dit kan uw site beschadigen in termen van gebruikerservaring.

Wat is de updatestatus van Google Panda vandaag?

Google Panda leeft nogen gezond... en blijft zich ontwikkelen.

Sterker nog, Panda kreeg een boost: het werd in 2016 onderdeel van het kernalgoritme van Google.

De grootste verandering die de meeste gebruikers hebben opgemerkt, is het einde van de officiële aankondigingen.

Panda is de steunpilaar geworden omdat er niet langer veel veranderingen nodig zijn.

Dat wil zeggen, de focus ligt op hoogwaardige inhoud en gebruikerservaring.

De Google Panda-update voltooien

Panda heeft een revolutie teweeggebracht in SEO. Voor de meesten waren de veranderingen ten goede.

Tegenwoordig zijn de Panda-principes algemene SEO-strategieën.

Dus als je ze niet gebruikt, is het tijd om Panda serieus te overwegen.

Ik denk dat het artikel nuttig was, zelfs voor degenen die niet zo bekend zijn met SEO.