• Home
  • Blog
  • 54 % SEOs kennen die Grundlagen der technischen SEO nicht

54 % SEOs kennen die Grundlagen der technischen SEO nicht

By Aquif Shaikh

20. Mai 2022

Wie oft hören Sie jemanden sagen, er sei ein SEO-Experte?

Ziemlich oft?

Aber wissen diese technischen SEOs wirklich etwas über SEO?

Ich habe immer geglaubt, dass es den meisten SEOs an Grundkenntnissen in technischer SEO mangelt. Daher beschloss ich, eine Umfrage durchzuführen, in der ich eine sehr grundlegende Frage zum Thema SEO stellte, die meiner Meinung nach jeder SEO kennen sollte.

Unten war die Frage

F. Sie möchten nicht, dass eine Seite indexiert wird. Was wäre die beste Option für Sie zu tun?

Und unten waren die Optionen für die Umfrage

  1. Blockieren durch Robots.txt
  2. No-Index-Tag hinzufügen
  3. Beide oben, um auf der sicheren Seite zu sein

Ziemlich geradlinig und einfach, oder?

Aber wissen Sie was?

54 % der SEOs haben diese Antwort falsch verstanden. Und die Stichprobengröße war auch nicht zu klein. Insgesamt stimmten 573 Teilnehmer für diese Umfrage.

Ergebnisse der technischen Umfrage

Wie Sie sehen können, denken 22 % der SEOs, dass Robots.txt die beste Option ist, um sicherzustellen, dass eine Seite nicht indexiert wird, und 32 % der SEOs denken, dass eine Kombination aus Blockierung durch robots.txt und die Verwendung eines No-Index-Tags eine großartige Idee wäre.

Allerdings haben nur 46 % der SEOs richtig geantwortet, dass Sie NUR das No-Index-Tag verwenden sollten.

Warum haben die meisten Benutzer die Antwort falsch erhalten?

Lassen Sie uns analysieren, warum diese SEOs diese Antworten gewählt haben und warum es die falsche Methode ist, Google daran zu hindern, Seiten zu indizieren.

Wie Sie alle wissen, ist Robots.txt eine Datei, die allen Bots, einschließlich Suchmaschinen-Bots, als Anweisung dient und ihnen mitteilt, wie die Website gecrawlt werden soll, welche Seiten gecrawlt werden sollen und welche nicht gecrawlt werden sollen.

Die meisten Suchmaschinen-Bots, einschließlich Googlebot, halten sich strikt an die Regeln in der robots.txt-Datei und stoppen das Crawlen der Website, sobald sie sehen, dass die Seite durch robots.txt blockiert wird.

Die offensichtliche Logik besagt, da der Googlebot die Website nicht crawlen wird, werden sie sie auch nicht indizieren.

Dies war der Grund, warum einige Leute in der Umfrage die robots.txt-Option ausgewählt haben.

Der Fang

Allerdings gibt es einen Haken. Laut Google respektieren sie die Richtlinien in der robots.txt-Datei und indexieren die Seite daher nicht. Wenn die Seite jedoch irgendwo anders im Internet erscheint, indexiert Google die Seite trotzdem.

Nachfolgend finden Sie die spezifische Richtlinie von Google

Google No-Index-Richtlinien

Die Richtlinie finden Sie unter folgendem Link

https://developers.google.com/search/docs/advanced/robots/

Achten Sie auf die fettgedruckten Wörter unten

Während Google die nicht crawlt oder indiziert content durch eine robots.txt-Datei blockiert wird, finden und indexieren wir möglicherweise dennoch eine unzulässige URL, wenn sie von anderen Stellen im Web verlinkt wird. Daher können die URL-Adresse und möglicherweise andere öffentlich verfügbare Informationen wie Ankertext in Links zu der Seite weiterhin in den Google-Suchergebnissen erscheinen. Um zu verhindern, dass Ihre URL in den Google-Suchergebnissen angezeigt wird, schützen Sie die Dateien auf Ihrem mit einem Kennwort server, verwenden Sie das noindex-Meta-Tag oder den Response-Header oder entfernen Sie die Seite vollständig.

Es ist also keine gute Idee, eine Webseite mit robots.txt zu blockieren.

WICHTIGER HINWEIS

Bitte beachten Sie, dass es vor Juli 2019 möglich war, einen No-Index-Befehl in robots.txt selbst hinzuzufügen. Diese Option wurde jedoch von Google im Juli 2019 eingestellt.

Aber warum nicht eine Kombination aus beidem verwenden?

Nun stellt sich die nächste Frage, warum die dritte Option, dh das Blockieren durch robots.txt, abgesehen von der Verwendung eines No-Index-Tags, eine falsche Antwort ist.

Die Antwort hier ist einfach. Wenn eine Seite an anderer Stelle im Internet erscheint, versucht Google, die Seite zu crawlen. Aber das Allererste, was Google tun wird, ist, die Robots.txt-Datei nachzuschlagen.

Sobald es jetzt sieht, dass die Seite von Robots.txt blockiert wird, wird es das Crawlen stoppen und daher wird es das No-Index-Tag nicht sehen. Daher wird die Seite am Ende immer noch indexiert, wie im Fall ohne No-Index-Tag.

Warum ist es wichtig zu wissen?

Solche Aspekte der technischen SEO sind für alle SEOs sehr wichtig, da sie sich darauf auswirken können, wie Ihre Website indexiert wird. Es ist jedoch seltsam, wie die meisten SEOs das falsch verstehen.

Das nächste Mal, wenn Ihnen jemand diese Frage in einem Interview oder auf andere Weise stellt, beantworten Sie sie mit Zuversicht, dass Sie das No-Index-Tag verwenden sollten.

Andere Möglichkeiten, um sicherzustellen, dass eine Seite nicht indiziert ist

Die andere Möglichkeit, um sicherzustellen, dass die Seite nicht indexiert wird, besteht darin, sie entweder mit einem Passwort zu schützen oder eine 404 (Content Nicht gefunden) oder 410 (Content gelöscht) Fehler.

Was ist, wenn Sie Ihre Seite versehentlich indiziert haben?

Wenn Sie versehentlich eine Seite indexiert haben, können Sie sie mit 404 oder 410 versehen oder als no-index markieren und dann entweder warten, bis Google die URL gecrawlt hat, oder das URL-Entfernungstool von Google verwenden, um die URL schnell zu entfernen

Was ist Ihre Meinung zu dieser Umfrage? Teilen Sie es uns in den Kommentaren mit

Über Aquif Shaikh

Aquif Shaikh ist Bloggerin u Web Hosting Experte aus Mumbai. Er liebt es zu schreiben, zu reisen und sein Wissen und seine Ideen mit der Welt zu teilen. Bei Blogging Ocean, schreibt er über Blogging-Tipps, web hosting tipps content Marketing, Online-Business und SEO.

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet.

{"email": "E-Mail-Adresse ungültig", "url": "Website-Adresse ungültig", "erforderlich": "Erforderliches Feld fehlt"}
Erfolgsmeldung!
Warnmeldung!
Fehlermeldung!