Aangemaakte reacties
-
AuteurBerichten
-
Ha Damsharp Damiaan :),
In antwoord op je vraag het volgende.
Het is inderdaad gebruikelijker om de root van het .com domein te gebruiken voor de engelstalige variant van de site. Het omgooien van de url’s zal echter -zo zie ik dat regelmatig- tot een hoop gedoe en fouten leiden. Google moet bovendien alles weer opnieuw gaan oppakken en begrijpen. Ik denk dat deze nadelen qua SEO niet opwegen tegen de voordelen, vooral als er gebruik gemaakt wordt van de hreflang-specificatie. Als de hreflang nog niet in gebruik is, zou ik die wel implementeren.
Kan je hiermee verder?
Gegroet!
In het geval van ……nl/merkx/submerkx/maatx krijg je een mooie overzichtspagina onder ……nl/merkx/submerkx. Die je dus ook goed kan optimaliseren (via de eigen meta-title, h1, content) op submerkx.
Een dergelijke pagina krijg je niet in het geval van ……nl/merkx/submerkx–maatx.
Indien de submerken interessante zoekwoorden betreffen, zou ik voor oplossing 1 gaan. Indien dat niet het geval is, kan je ook voor oplossing 2 gaan.
Vanuit SEO bezien, is de bounce rate (weigeringspercentage) geen significant onderdeel van het rankingalgoritme. Want wat zou gunstig moeten zijn? Jij lijkt een lage bounce rate gunstig te vinden. Maar als iemand het perfecte antwoord op je pagina vindt, ligt het niet voor de hand dat deze wil doorklikken binnen de site. Het antwoord is immers gevonden. Je zou zelfs kunnen zeggen: als iemand doorklikt heeft hij het antwoord niet gevonden en is het dus niet zo’n goede pagina. Om die reden kan Google de bounce rate niet of nauwelijks als rankingcriterium gebruiken.
Hiermee is de vraag of het vergroten van een afbeelding een interactie is vanuit SEO bezien dus eigenlijk niet relevant.
De www-variant is voor Google een andere site dan de non-www variant. Van de ene site zijn dus twee en van de andere 98 pagina’s geïndexeerd. Bij de Google Search Console kan je beide varianten afzonderlijk aanmelden.
Het is echter ongebruikelijk om beide varianten los van elkaar te laten bestaan. Daarom redirecten (301) we de ene naar de andere variant (maakt niet uit welke). Jij hebt dat ook netjes gedaan.
Google heeft op dit moment nog twee pagina’s van de www-variant in haar index, maar die zullen vanzelf verdwijnen.
Voor wat betreft de Google Search Console data moet je dus kijken naar de non-www property en niet naar de www-property.
Ik tel 98 geïndexeerde pagina’s, zie hier.
14 december 2020 om 9:57 pm In reactie op: Melding ”onjuiste naamruimte” in Google Search Console #40197Mogelijk moet <link …> in je sitemap vervangen worden door:
<xhtml:link… >
Zoals hier:
https://webmasters.stackexchange.com/questions/86596/sitemaps-link-rel-for-quad-directional-websites
Laat het ons weten als het is opgelost!
-
Deze reactie is gewijzigd 2 maanden, 2 weken geleden door
Alain Sadon.
-
Deze reactie is gewijzigd 2 maanden, 2 weken geleden door
Alain Sadon.
Wat mij betreft is het idee dat er zo’n formule zou bestaan te veel old-school SEO, zeker door de moderne ontwikkelingen op het gebied van machine learning.
Je moet natuurlijk Google ‘geloven’, want het gaat om de informatie die zij tonen en niet de informatie die via derden wordt getoond. Bij Google zit je bij de bron.
Google toont waarschijnlijk veel minder links omdat ze niet alle links vanuit fruitteeltonline.nl interessant vinden. Het merendeel wordt geskipt, waardoor je bij de GSC veel minder links overhoudt.
Ha Ronald, ja, ik herinner mij inderdaad dat je hier eerder al mee worstelde. Vervelend dat het nog steeds een probleem is. Punt is dat Google bij de reviews bij voorkeur zowel positieve als negatieve reviews wil tonen. Als er maar één negatieve review is, krijg je die niet meer weg. Je zou kunnen proberen om nóg een negatieve review toe te (laten) voegen, die iets minder negatief -wat vriendelijker- is. Misschien pakt Google die dan, i.p.v. de huidige, op. Verder zou ik het niet weten.
Overigens zal de review niet heel snel opvallen. Op desktop moet je eerst naar beneden scrollen, en dan staat het rechts in kleine letters vermeld, tussen andere (positieve) reviews. Op mobiel moet je zelfs eerst het kennisvenster uitklappen (meer over…), wil je de negatieve review in beeld krijgen. Als je rechtstreeks op de tab ‘Reviews’ klikt, zie je die negatieve review er zelfs niet eens bijstaan.
Ik vraag mij dus af of deze negatieve review werkelijk voor veel mensen als een rode vlag fungeert.
Groet!
Alain
Dag Inge,
Welkom op het forum!
URL’s met vraagtekens (?) en ampersands (&) in de URL zijn volstrekt gebruikelijk. Filtermechanismen in vele sites werken op die manier. Voor Google zijn het allemaal verschillende URL’s en zullen daarom ook individueel worden geïndexeerd. In jouw geval bevatten de URL’s ook nog eens interessante zoektermen (zoals ‘ingredienten’, ‘aardbei’, ‘seizoen’ en ‘zomer’. Allemaal prima dus. In principe kan je een URL als domein.nl/naamrecept/?ingredienten=aardbei&seizoen=zomer herschrijven naar bijvoorbeeld domein.nl/recepten/aardbei-zomer/, maar voor Google hoeft dat dus niet. Herschrijven van url’s kan overigens via het .htaccess-bestand dat op de server staat.
Google ziet de filterpagina’s dus als verschillende pagina’s. Als die verschillende pagina’s geen dubbele content bevatten, is er geen sprake van duplicate content. Als dat wel het geval is, dan is er wel sprake van duplicate content.
Nu wordt er vaak nogal paniekerig gedaan over duplicate content. Maar ook duplicate content is volstrekt normaal. SEO-technisch is het echter niet ideaal. Als je pagina’s hebt met duplicate content, is het daarom wel slim om pagina’s te koppelen via de rel=canonical. Dan bundel je de kracht van meerdere duplicate content pagina’s in één canonieke url.
Tja, een moeilijk te beantwoorden vraag, daar Google helaas niet precies aangeeft waar bijvoorbeeld die klikbare elementen te dicht bij elkaar staan. Als ik je twee voorbeelden op het oog bekijk, vallen mij wel de links met de ankertekst ‘Reprapper’ op, die meteen onder de individuele afbeeldingen te zien zijn. Bij de goede pagina zijn die afwezig. Die links staan erg dicht bij de knopjes daarboven, zoals het winkelmandje, de productvergelijking en de verlanglijst. Het lijkt mij dat Google i.h.b. de positionering van dát soort klikbare elementen serieus neemt omdat ze niet willen dat de bezoeker ongewild dergelijke acties triggert. Dat zie je ook bij het nieuwe onderdeel in de Google Search Console, met de naam site-vitaliteit, waar ze in dit verband ook CLS-problemen zijn gaan melden.
Nee, dat geloof ik niet. Ik vermoed een foutje van de kant van Moz. In de zoekresultaten toont Google inderdaad een beperkt aantal karakters (of eigenlijk pixels: je kan bijvoorbeeld veel meer i’s kwijt dan W’s), en ook voor de SEO verwatert de waarde van de individuele woorden als de title langer wordt. Het is dus geen interessante SEO-strategie om titles langer te maken. Het is natuurlijk wel slim om de maximale lengte zo goed mogelijk te benutten met relevante zoektermen.
De pagina die je noemt is wel degelijk geïndexeerd.
Of zoek maar eens op een stuk tekst uit de pagina. Dan zie je de pagina’s gewoon netjes verschijnen.
De indexering is niet het probleem. Het probleem is blijkbaar dat de site slecht gevonden wordt.
Allereerst is het daarbij natuurlijk de vraag op welke zoektermen de site slecht wordt gevonden. De site komt mij over als een visitekaartje-achtige website. Meestal worden dergelijke sites alleen gevonden op de naam van het bedrijf. Dat is bij jullie netjes het geval.
Maar wat schetst mijn verbazing: Google blijkt maar liefst 4.220 pagina’s te hebben geïndexeerd van de site. Het is dus geen visitekaartje-achtige website. Maar als ik die pagina’s (uit de 4220-lijst) dieper onderzoek, blijken veel ervan niet (meer?) te bestaan. Zie bijvoorbeeld deze.
Het lijkt mij allereerst zinnig dit uit te zoeken. Want ik zie bijvoorbeeld ook allerlei chinees-talige zoekresultaten. Is de site gehackt (geweest)? Misschien bevat de WordPress mysql-database nog allerlei rommel.
Meld de site verder aan bij de Google Search Console. Daar zal je veel van gaan leren. En ga je vervolgens afvragen wat de zoektermen zijn waar je goed op wilt scoren. Ga je tot slot verdiepen in de vraag hoe je de pagina’s vervolgens op die zoektermen kan optimaliseren. Zo zie ik dat de zo belangrijke meta-title van jullie homepage ‘Home – Aspire-ABA Center Europe’ is. Geen enkele interessante zoekterm op de belangrijkste plek in jullie site, dus.
Succes!
Dat zijn regels in het .htaccess-bestand die op basis van een premisse een andere uitkomst hebben. Zo kan de ene regel zeggen dat er bij URL A niets moet gebeuren, terwijl de andere regel zegt dat er bij URL A wél iets moet gebeuren.
Als je in Google zoekt op ‘htaccess checker’ dan krijg je vele zoekresultaten. Je zou die eens kunnen proberen.
Volgens mij mogen we hieruit de conclusie trekken dat Google selectiever is in de selectie van backlinks dan ahrefs dat is. Bij ahrefs heb je overigens ook de optie om gelijksoortige links samen te nemen in één link. Misschien komen de getallen dan dichter bij elkaar in de buurt?
-
Deze reactie is gewijzigd 2 maanden, 2 weken geleden door
-
AuteurBerichten
Gerelateerde berichten:
- SEO voor website in meerdere talen 7 oktober 2018 Beste, We hadden een vraag in verband de website www.benja.world. Deze website is momenteel beschikbaar in Engels en Nederlands (en draait op Weebly). Echter, in het…
- Eigen sites voor linkbuilding maken 3 april 2020 Ik heb alleen een vraag met betrekking tot een deel van mijn SEO strategie. Ik ben recentelijk een website gestart genaamd http://www.debadkamerontwerpers.nl. Uit het zoekwoordenonderzoek…
- pagina voor tweede keer redirecten 16 mei 2018 Hallo, Ik had een pagina (1) en heb deze pagina een paar weken geleden een andere naam (2) gegeven en toen geen redirect gedaan. Nu…
- quarantaine domeinnaam 301 redirecten goed voor SEO? 6 april 2018 Goedemorgen, Ik heb een aantal quarantaine domeinnamen kunnen registreren welke erg relevant zijn met ons eigen bedrijf. De domeinnamen zijn o.a. van collega's die failliet…