10 stappen om uw Site te laten indexeren op Google

als dit nog niet het geval is, moet organisch zoekverkeer een prioriteit zijn voor uw digitale marketingplan. Meer dan de helft van het internetverkeer komt van zoekmachines (het kan oplopen tot 60%). Organische zoekverkeer is ook enorm belangrijk bij het genereren van online verkoop. Dus natuurlijk realiseer je je dat je SEO een prioriteit is. Maar waar te beginnen? Alle SEO begint met het krijgen van uw website gevonden, gekropen en geïndexeerd door zoekmachine robots.

In dit stuk leer je over de technische en paginaaspecten van SEO en hoe je ze kunt gebruiken om de aandacht van Google, Bing en andere zoekmachines te trekken.

er zijn drie belangrijke stappen voor SEO succes met Google, die als volgt zijn:

a) laat uw site crawlen door Google bots.

b) laat uw site indexeren.

c) krijg hoge zoekresultaten.

In dit artikel gaan we het hebben over de twee belangrijke initiële processen, namelijk het crawlen en indexeren van webpagina ‘ s die leiden tot sites die in zoekresultaten worden weergegeven. Gezien worden door Google is belangrijk, als tot nu toe geen andere zoekmachine heeft overtroffen Google ‘ s hoge populariteit en gebruikersvoorkeur.

Wat is crawlen?

zoekmachine kruipen verwijst naar bots bladeren bepaalde pagina ‘ s op het web. Als u een nieuw gelanceerde site, de Google bot zal moeten vinden (crawl) webpagina ‘ s van uw site om te weten van het bestaan ervan op het web. Dat gezegd hebbende, de baan van de bot eindigt niet met kruipen. Het moet de pagina ‘ s ook indexeren.

Wat is indexeren?

zodra een bot een pagina heeft gevonden door deze te crawlen, moet hij de pagina toevoegen aan de lijst van andere gecrawld pagina ‘ s die tot dezelfde categorie behoren. Dit proces staat bekend als indexeren. In een boek vindt u dat de inhoud systematisch is gerangschikt op categorie, woord, referentie, enz. in de index. Dit maakt het makkelijker voor lezers om precies te vinden wat ze zoeken in het boek. Ook zoekmachines hebben een index van pagina ‘ s gecategoriseerd op verschillende manieren. Deze pagina ’s zijn niet de pagina’ s van uw website precies, maar een screenshot van de pagina ‘ s zoals ze werden gezien de laatste keer dat ze werden gekropen. Deze screenshots zijn de cacheversies van de pagina ‘ s.

wanneer een gebruiker een zoekopdracht invoert in Google search, gaat Google snel door deze indexen om te beoordelen welke pagina ‘ s geschikt zijn om resultaten te retourneren. Met behulp van ingewikkelde wiskundige algoritmen, Google is in staat om te beslissen waar in de zoekresultaten elke pagina moet worden geretourneerd. De nauwkeurigheid van Google in het retourneren van de juiste pagina’ s om vragen van gebruikers is wat maakt het zo ‘ n enorme zoekgigant.

opmerking: de geretourneerde pagina in de cache is mogelijk niet identiek aan de pagina die onlangs is gewijzigd op uw website, maar wanneer u nieuwe inhoud toevoegt en gemakkelijk toegang biedt tot zoekmachines, zullen ze uw pagina ’s opnieuw doorzoeken en indexeren om de nieuwste versies van uw webpagina’ s in de zoekresultaten te retourneren.

dit roept de vraag op: Hoe krijg ik mijn site geïndexeerd door Google? (Hier betekent het woord “geïndexeerd” gekropen en collectief geïndexeerd.) Er zijn vele manieren om uw website crawled en geïndexeerd door Google bots. Zie de onderstaande stappen (die in nr.
bijzondere volgorde staan):

1. Google Search Console-Account

een Google Search Console-Account en een Google Analytics-account Ophalen. Dien uw site hier in. U kunt Crawl Stats controleren in de Google Search Console om te zien hoe vaak Google uw pagina ‘ s kruipt.

Crawl stats-Google Search Console

met Google Search Console kunt u ook precies zien hoeveel pagina ‘ s door Google zijn geïndexeerd.

Geïndexeerde Pagina ' S-Google Search Console

2. Ophalen als Google

Google Search Console biedt de optie om Google te vragen om nieuwe pagina ’s of pagina’ s met bijgewerkte inhoud te doorzoeken. Deze optie bevindt zich onder de Crawl sectie en heet Fetch as Google.

typ het URL-pad in het opgegeven tekstvak en klik op Ophalen. Zodra de statusupdates van ophalen succesvol is, klikt u op Verzenden naar Index. U kunt individuele URL ’s indienen of URL’ s met links naar alle bijgewerkte inhoud. Met de eerste kunt u tot 500 URL verzoeken per week, met de laatste kunt u 10 verzoeken per maand.

ophalen als Google-Google Search Console

3. XML Sitemaps

Sitemaps fungeren als kaarten voor de zoekbots, die ze naar de binnenpagina ‘ s van uw website leiden. U kunt zich niet veroorloven om deze belangrijke stap in de richting van het krijgen van uw site geïndexeerd door Google verwaarlozen. Maak een XML sitemap en stuur deze naar Google in uw Google Search Console-account.

Test XML Sitemap toevoegen-Google Search Console

4. Inkomende Links

bots van zoekmachines vinden en indexeren uw site vaker wanneer websites die vaak worden gekropen en geïndexeerd er naar linken. Om dit te laten werken moet je kwaliteit links naar uw site van andere populaire sites te bouwen. U kunt meer te weten komen over het verkrijgen van kwaliteit links uit de 10 Link Building Strategies blog post van
WooRank.

5. Crawl your website

om te begrijpen hoe zoekmachines uw inhoud crawlen, moet u uw website crawlen. WooRank ’s Site Crawl doet dit voor u, het benadrukken van eventuele problemen die kunnen worden voorkomen dat zoekmachines toegang tot uw pagina’ s, terwijl het markeren van eventuele optimalisaties die kunnen worden gemaakt om uw SEO te verbeteren.

6. Clean Code

maak de taak van de Google bot om uw site te doorzoeken en te indexeren eenvoudig door de backend van uw site te reinigen en ervoor te zorgen dat u W3C-compatibele code hebt. Ook, nooit bloat uw code. Zorg ervoor dat er een goede tekst / html verhouding in uw website
inhoud.

W3C-fouten

7. Faster Site, Faster Indexing

Sites die gebouwd zijn om snel te laden, zijn ook geoptimaliseerd voor snellere indexering door Google.

8. Goede interne linkstructuur

zorgt ervoor dat alle pagina ‘ s van uw website met elkaar verbonden zijn. Vooral als uw site home page is geïndexeerd zorg ervoor dat alle andere pagina ‘ s zijn verbonden met het, zodat ze zullen worden geïndexeerd ook, maar zorg ervoor dat er niet meer dan 200 links op een bepaalde pagina.

9. Goede navigatie

goede navigatie zal bijdragen aan de hierboven besproken verbindingsstructuur. Zo belangrijk als de navigatiestructuur is voor uw gebruikers, het is net zo belangrijk voor de snelle indexering van uw site. Snelle Tip: gebruik breadcrumb navigatie.

10. Nieuwe inhoud toevoegen

kwaliteitsinhoud regelmatig toevoegen aan uw site. Inhoud van waarde trekt de bots. Zelfs als uw site slechts eenmaal is geïndexeerd, met de toevoeging van meer en meer waardevolle inhoud u er bij de Google bot op aandringen om uw site herhaaldelijk te indexeren. Deze waardevolle inhoud is niet beperkt tot de zichtbare inhoud op de pagina, maar ook de metadata en andere belangrijke SEO-componenten op de website. Houd deze SEO tips voor de inhoud van de Website in het achterhoofd.

dit zijn de basis dingen die u moet doen om sneller crawlen en indexeren door Google bots te vergemakkelijken, maar er kunnen andere problemen zijn die voorkomen dat uw site wordt geïndexeerd. Het kennen van deze potentiële problemen zal handig zijn als u vindt dat uw site niet wordt geïndexeerd.

andere te overwegen zaken

  • Server problemen: soms is het niet uw website ’s schuld dat het niet wordt geïndexeerd, maar de server’ s, dat wil zeggen, de server kan niet toestaan dat de Google bot om toegang te krijgen tot uw inhoud. In dit geval verstopt de DNS-delegatie de toegankelijkheid van uw site of wordt uw server onderhouden. Controleer op serverproblemen als er geen pagina ‘ s zijn geïndexeerd op uw nieuwe site.

  • Gedeïndexeerd Domein: u hebt mogelijk een gebruikt domein gekocht en als dat zo is, is dit domein mogelijk om onbekende redenen gedeïndexeerd (hoogstwaarschijnlijk een geschiedenis van spam). Stuur in dergelijke gevallen een verzoek tot heroverweging naar Google.

  • Robots.txt: het is noodzakelijk dat je een robots hebt.txt-bestand, maar je moet cross check het om te zien of er pagina ’s die hebben’ verboden ‘ Google bot toegang (meer over dit hieronder). Dit is een belangrijke reden dat sommige webpagina ‘ s niet worden geïndexeerd.

  • Meta Robots: de volgende meta tag wordt gebruikt om ervoor te zorgen dat een site niet wordt geïndexeerd door zoekmachines. Als een bepaalde webpagina niet wordt geïndexeerd, controleer dan of deze code aanwezig is.

  • URL-Parameters: soms kunnen bepaalde URL-parameters worden beperkt van indexering om dubbele inhoud te voorkomen. Wees heel voorzichtig als je deze functie gebruikt (te vinden in Google Search Console onder Configuratie), omdat er duidelijk staat dat “het onjuist configureren van parameters kan leiden tot pagina’ s van uw site worden verwijderd uit onze index, dus we raden u niet aan deze tool te gebruiken, tenzij nodig. Reinig uw URL ‘ s om kruipende fouten te voorkomen.

  • schaak .htaccess-bestand: de .htaccess-bestand dat is gevonden in de hoofdmap wordt over het algemeen gebruikt om crawling fouten en omleidingen op te lossen. Een onjuiste configuratie van dit bestand kan leiden tot de vorming van oneindige lussen, waardoor de site niet geladen en geïndexeerd kan worden.

  • andere fouten: Controleer op gebroken links, 404 fouten, en onjuiste omleidingen op uw pagina ‘ s die kunnen worden het blokkeren van de Google bot van kruipen en indexeren van uw site.

    u kunt de Google Search Console gebruiken om de indexstatus van uw site te achterhalen. Deze tool is gratis en verzamelt uitgebreide gegevens over de indexstatus van uw site op Google. Klik op de Health optie in de Google Search Console om de Index Status grafiek te controleren, zoals hieronder getoond:

    meta name = “robots” content= “noindex, nofollow”

    u kunt Google Search Console gebruiken om de index status van uw site te achterhalen. Deze tool is gratis en verzamelt uitgebreide gegevens over de indexstatus van uw site op Google. Klik op de Health optie in Google Search Console om de Index Status grafiek te controleren, zoals weergegeven in de screenshot hieronder:

    Crawl Stats-Google Search Console

Als u wilt controleren welke URL ‘ s niet geïndexeerd zijn, kunt u dit handmatig doen door de SEOquake extensie te downloaden.

op pagina SEO

de eerste stap om gevonden te worden door zoekmachines is om uw pagina ‘ s te maken op een manier die het voor hen gemakkelijk maakt. Begin met het uitzoeken wie uw website is gericht en beslissen welke zoekwoorden uw doelgroep gebruikt om u te vinden. Dit zal bepalen voor welke zoekwoorden je wilt rangschikken. Best practice is om longtail zoekwoorden als ze goed zijn voor de overgrote meerderheid van het zoekverkeer, hebben minder concurrentie (waardoor het gemakkelijker is om hoog te rangschikken) en kan aangeven dat een zoeker is in-market. Ze hebben ook de toegevoegde bonus van het krijgen van meer klikken, met een hogere click through rate (CTR), en meer conversies.

er zijn nogal wat gratis tools voor trefwoordonderzoek beschikbaar op het web.

zodra u uw doel zoekwoorden hebt, kunt u deze gebruiken om een geoptimaliseerde basis voor uw pagina ‘ s te bouwen. Zet uw zoekwoorden in deze op pagina-elementen:

  • titel tag: Title tags zijn een van de belangrijkste op pagina factoren zoekmachines kijken naar bij het beslissen over de relevantie van een pagina. Trefwoorden in de titel tags vertellen zoekmachines wat het zal vinden op de pagina. Houd uw titeltags 60 tekens of minder en gebruik uw belangrijkste trefwoord aan het begin. Een correct gebruikte titellabel ziet er zo uit:

    <title>Page Title</title>
  • meta description: metabeschrijvingen op zich hebben niet veel invloed op de manier waarop zoekmachines uw pagina zien. Wat ze wel beà nvloeden is de manier waarop mensen uw zoekfragment zien – de titel, URL en beschrijving die worden weergegeven in de zoekresultaten. Een goede meta beschrijving zal gebruikers om te klikken op uw site, het verhogen van de CTR, die een grote impact heeft op uw ranking. Trefwoorden gebruikt in de beschrijvingen verschijnen in knipsels in vet dus, nogmaals, gebruik de jouwe hier.

  • pagina-inhoud: Uiteraard moet u uw zoekwoorden in uw pagina-inhoud. Don ‘ t stuff uw inhoud al, gewoon gebruik maken van uw trefwoord 3-5 keer in de hele pagina. Gebruik ook enkele synoniemen en latente semantische indexering (LSI) trefwoorden.

  • voeg een blog: naast de meer stereotiepe content marketing SEO voordelen, blogs zijn kruipen en indexeren krachtpatsers voor uw site. Sites die blogs hebben krijgen een gemiddelde van:

    • 97% meer geïndexeerde links

    • 55% meer bezoekers

    • 434% meer geïndexeerde pagina ‘s

het toevoegen en bijwerken van pagina’ s of inhoud aan uw site stimuleert vaker kruipen door zoekmachines.

technische SEO

Robots.txt

nadat u uw on page SEO factoren voor uw doel zoekwoorden hebt geoptimaliseerd, neem dan de technische aspecten van het krijgen van Google om uw pagina te bezoeken. Gebruik robots.txt-bestand om de zoekmachine crawlers te helpen navigeren door uw site. Heel eenvoudig, een robot.txt-bestand is een platte tekst bestand in de root directory van uw website. Het bevat een code die bepaalt welke gebruikersagenten toegang hebben tot welke bestanden. Het ziet er meestal zo uit.:

User-agent:*Disallow:

de eerste regel, zoals je waarschijnlijk kunt raden, definieert de user agent. In dit geval staat de * voor alle bots. Het verlaten van de Disallow lijn leeg geeft bots toegang tot de hele site. U kunt meerdere disallow regels toevoegen aan een enkele user-agent regel, maar u moet een aparte disallow regel maken voor elke URL. Dus als u wilt blokkeren Googlebot toegang tot meerdere pagina ’s die u nodig hebt om meerdere disallows toe te voegen:

User-agent: GooglebotDisallow: /tmp/Disallow: /junk/Disallow: /private/

doe dit voor elke bot die u wilt blokkeren van die pagina’ s. Je kunt ook de robots gebruiken.txt-bestand om te voorkomen dat bots bepaalde bestandstypen zoals PowerPoints of PDF ‘ s proberen te crawlen:

User-agent:*Disallow: *.ppt$Disallow: *.pdf$

om alle bots van je hele site te blokkeren, voeg je een schuine streep toe:

User-agent:*Disallow: /

het is een goede gewoonte om alle robots de toegang tot uw gehele site te blokkeren terwijl u deze aan het bouwen of herontwerpen bent. Herstel de toegang tot crawlers wanneer uw site live gaat of het kan niet worden geïndexeerd. Zorg er ook voor dat u de toegang tot Schema.org markup of het wordt niet weergegeven in de rijke zoekresultaten van Google.

als u een Google Search Console-account hebt, kunt u uw bestand verzenden en testen bij de robots.txt Tester in de Crawl sectie.

robots.txt Tester

XML Sitemaps

XML sitemaps zijn net als robots.txt-bestanden, tekstbestanden die zijn opgeslagen in de directory van uw site. Dit bestand bevat een lijst van alle URL ‘ s van uw site en een beetje extra informatie over het belang van elke URL, laatste update, update frequentie en als er andere versies van de pagina in een andere taal. De sitemap moedigt zoekmachines aan om uw pagina ‘ s efficiënter te doorzoeken. Sitemaps bevatten de volgende elementen:

  • <urlset> – de openings – en sluitlijn van de sitemap. Het is de huidige protocol standaard.

  • <url> – de bovenliggende tag voor elke URL in uw site. Sluit het met

  • <loc> – Dit is de absolute URL waar de pagina zich bevindt. Het is absoluut van vitaal belang dat u absolute URL ‘ s consequent gebruiken (http vs.https., wwww.example.com of example.com, enz.)

  • <lastmod> – de datum waarop de pagina voor het laatst is bijgewerkt. Gebruik het JJJJ-MM-DD-formaat.

  • <changefreq> – de frequentie waarmee u wijzigingen aanbrengt in het bestand. Hoe vaker u een pagina bijwerkt, hoe vaker het zal worden gekropen. Zoekmachines kunnen echter zien wanneer je liegt, dus als je het niet zo vaak wijzigt als je hier hebt ingesteld, zullen ze het negeren.

  • <priority> – het belang van een pagina binnen de site, variërend van 0,1 tot 1,0.

  • <xhtml:link> – dit geeft informatie over alternatieve versies van de pagina.

wanneer correct geïmplementeerd, uw sitemap moet er zo uitzien:

XML sitemap voorbeeld

als u een grote of ingewikkelde site hebt, of zelf geen sitemap wilt maken, zijn er veel hulpmiddelen die u kunnen helpen uw XML sitemap te genereren.

Sitemaps zullen je niet echt helpen om beter te scoren, tenminste niet direct. Maar ze helpen zoekmachines uw site en al uw URL ‘ s te vinden, en dat maakt het makkelijker voor u om de ranglijst te beklimmen. Versnel dit proces nog meer door het indienen van uw sitemap rechtstreeks via Google Search Console. Ga naar Sitemaps onder Crawl en klik op Sitemap toevoegen / testen. U kunt hetzelfde doen met Bing ‘ s Webmaster Tools. Gebruik deze tools om te controleren op eventuele fouten in uw sitemap die de indexering van uw site kunnen belemmeren.

nadat u uw sitemap naar de Google Search Console hebt verzonden, zal het hulpprogramma u waarschuwen voor eventuele Sitemapfouten. Google heeft een paar van deze fouten en een uitleg over hoe je elk van hen hier op te lossen.

Off Page SEO

u kunt altijd de directe route nemen en de URL van uw site direct naar de zoekmachines sturen. Het verzenden van uw site naar Google is eenvoudig: bezoek hun pagina, Voer uw URL in, Vul de om te bewijzen dat je mens bent en klik op verzoek indienen. U kunt ook door Zoekconsole gaan als u een account hebt. U kunt uw site bij Bing indienen met behulp van hun Webmastertools, waarvoor een account vereist is. Gebruik crawl-fouten om problemen te vinden die crawlers kunnen blokkeren.

Maak het makkelijker voor zoekmachine spiders om uw site te vinden door uw URL daar te krijgen. Plaats een link naar uw website in uw social media pagina ‘ s. Dit zal niet echt helpen u beter rangschikken in de zoekresultaten, maar Google doet kruipen en index social media pagina ‘ s, dus het zal nog steeds uw links te zien. Het is extra belangrijk dat u een Google+ – account hebt, zodat u de rel=”publisher” – tag kunt gebruiken om uw bedrijfsinformatie te laten verschijnen in Google ‘ s rich snippets. Als je een YouTube-account hebt, plaats dan een korte video waarin de functies van je nieuwe site worden uitgelegd en voeg een link toe aan de videobeschrijving. Als u op Pinterest, pin een hoge-resolutie screenshot met uw URL en een beschrijving (vergeet niet om uw zoekwoorden te gebruiken in de beschrijving).

dit laatste deel van off-page SEO kan een beetje lastig zijn: het verzenden van uw URL naar een web directory. Web directory ‘ s waren ooit een gemeenschappelijke manier voor SEOs om eenvoudige backlinks voor hun sites te genereren. Het probleem, echter, is dat veel van deze sites hadden veel spam inhoud en gaf weinig waarde aan gebruikers. Dus het indienen van uw URL naar een lage kwaliteit directory kan meer kwaad dan goed doen.

doe een beetje huiswerk over directory ’s om directory’ s met hoge autoriteit te vinden. Bekijk ook vertrouwde bronnen online voor samengestelde lijsten van geloofwaardige directory ‘ s.

concluderend

online gevonden worden is het einddoel van uw SEO. Maar voordat mensen je kunnen vinden, moeten de zoekmachines eerst. U kunt altijd publiceren van uw site, achterover leunen, ontspannen en wachten tot ze naar u toe komen,maar dat zal je niet de beste resultaten. Gebruik de hierboven genoemde methoden om het crawlen en indexeren van uw pagina ‘ s te verbeteren, zodat u sneller kunt beginnen met ranking en uw publiek kunt opbouwen.

welke stappen hebt u ondernomen om uw pagina ‘ s te laten doorzoeken en indexeren door zoekmachines? Wat op pagina en off-pagina uitdagingen heb je ondervonden?

Categorie: Technical SEO

Tags: Google Search Console, Search Engines, on page SEO, Off-page SEO

Title tag: Hoe kan Google Uw Site snel indexeren

meta description: als u uw website wilt rangschikken, moet u uw site laten indexeren. Volg deze op pagina, technische en off-page optimalisaties om indexering bots aan te trekken.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.