Wer sicherstellen möchte, dass bestimmte Seiten von Google nicht indexiert werden, darf sich dabei nicht auf das Attribut Nofollow verlassen. Das stellt Webmaster Trends Analyst John Mueller unmissverständlich klar. Denn mit rel=“nofollow“ können Webmaster Google inzwischen nur noch einen Hinweis geben. Soll Google eine Seite auf keinen Fall indexieren, ist ein Noindex-Attribut vonnöten.

Meta Robots Nofollow und rel=“nofollow“ sind ein Hinweis

Bei einer Ausgabe der SEO Office Hours der Google Search Central stellte ein User die Frage, ob das Nofollow-Attribut zum Verhindern einer Indexierung genutzt werden kann. Wie Matt Southern beim Search Engine Journal berichtet, verneint Mueller dies. Im Hangout erklärt er auch, dass die Suchmaschine Seiten mit diesem Attribut durchaus indexieren könnte:

No. Essentially, nofollow tells us not to pass any PageRank to those pages, but it doesn’t mean that we will never index that page. So if you really want a page to be blocked from indexing, make sure it has a noindex on it. Don’t rely on us not accidentally running across a random link to that page. So I would not assume that those two are the same.

Dabei verweist der Webmaster Trends Analyst auf Aussagen von Googles Webmaster Trends Analyst Gary Illyes. Demnach ist das Attribut rel=“nofollow“ ebenso wie der entsprechende Robots Meta Tag nur ein Hinweis:

2019 machte Google Robots Meta Tags zum formalen Internetstandard – nach 25 Jahren Defacto-Standard. Es gibt einen sicheren Weg, um Suchmaschinen anzuweisen, Seiten nicht für die Suchergebnisse zu indexieren: Das Attribut Noindex in den Robots Meta Tags. Dieses kann schlicht so aussehen:

<meta name="googlebot" content="noindex" />

John Mueller stellt klar, dass dies die verlässlichste Option ist:

So on the one hand we might see that link without a nofollow. We might see it with a nofollow and still kind of look at it anyway. If you don’t want a page indexed, then make sure it’s noindexed.

Dabei ist wichtig zu wissen, dass eine Noindex-Anweisung nicht durch eine robots.txt-Datei blockiert sein darf. In diesem Fall könnte der Crawler die Anweisung nicht lesen und die Seite trotzdem indexiert werden. Du kannst die Angaben von John Mueller im Hangout hier noch einmal nachvollziehen:

In diesem on demand Webinar erfährst du, wie Du Dich in dem neuen Google Analytics 4 Interface zurecht findest und mit welchen Reportings Du schnell und einfach herausfinden kannst, wer Deine Webseitenbesucher:innen sind und wie sie mit Deiner Webseite interagieren. Jetzt kostenlos ansehen

Powered by WPeMatico

Teile diesen Beitrag