ältere Beiträge anzeigen »

Facebook-Links und likes: Helfen Sie der SEO Indexierung?

Kürzlich erreichte uns die Anfrage eines jungen HR-Beratungsunternehmens, weshalb dieses bei Google nicht gelistet sei.

Eine kurze Abfrage mit site:[domain.ch] zeigte uns, dass die Seite nicht nur nicht rankte, sondern gar nicht im Index enthalten war. 🙁
Also sofortige Überprüfung, ob etwas die Indexierung blockt.

– robots.txt: ok – keine Blockierung
– Meta-Robots-Tag:  „index,follow“ – also ebenfalls i.o.

Also überprüften wir die Backlinks zur Seite und wie vermutet, fanden sich in keinem unserer Link-Research-Tools irgendwelche Links, die zur Seite zeigten.
Google hat die Seite also bisher einfach noch nicht „gefunden/entdeckt“.

Dies stellte für uns die interessante Frage, ob eine Google-Submission via Facebook möglich sei. Wie bekannt ist, sind ja alle extern zeigenden Links auf Facebook mit dem „nofollow“-Tag versehen. Nichts desto trotz, taucht die Vermutung immer wieder auf, dass auf Facebook geshared-te und gelike-te Links auch von Google berücksichtigt werden.

Also haben wir den Link auf Facebook gepostet und für einige „social interactions“ gesorgt. 3 Likes, 8 Kommentare haben dem Link etwas „Leben“ verschafft.

Doch auch 14 Tage nach der Schaltung ist von der Site im Google-Index nichts zu sehen.

Somit unser Fazit: Social Interactions mögen zwar beim Ranking allenfalls behilflich sein, eine Seite in den Index zu bringen, dafür reichen Sie jedoch nicht aus.

Habt Ihr andere Erfahrungen gemacht?

Kategorien: Social Media | Suchmaschinen

Kommentare: 3 Kommentare



Facebook-Links und likes: Helfen Sie der SEO Indexierung?

Rankings messenIch habe bis vor einigen Wochen das Ranking von einzelnen Keywords auf unseren Webseiten wöchentlich, zum Teil fast täglich, gemessen und immer mal wieder eine Verbesserung festgestellt, was natürlich schön und gleichzeitig auf den Erfolg der entsprechenden Optimierungsversuche hinweist. Lassen wir hier diejenigen Stichworte, welche „springen“ und welche sich positionsmässig verschlechtert haben, einmal weg. In letzter Zeit habe ich diese Ranking Checks extrem vernachlässigt und werde sie in Zukunft ganz fallen lassen. SEO Erfolg lässt sich nicht am Ranking von einzelnen Keywords messen und die so frei werdende Zeit kann wesentlich besser genutzt werden, indem man damit etwas tiefer in die Traffic-Daten der Webseite eintaucht.

Suchmaschinen blocken Rank Checker
Automatisierte Rank Checker senden täglich Tausende von Anfragen an die Suchmaschinen, was zu einer ungeheuren Serverlast führt. Doch ist dies wirklich ein Argument? Wohl kaum. Suchmaschinen wie Google schieben täglich so viele Daten hin und her, dass die paar Rank-Checker-Anfragen auch nicht mehr gross ins Gewicht fallen. Es ist wohl eher so, dass die Suchmaschinen ihre Suchresultate aufgrund des menschlichen Suchverhaltens abbilden wollen und nicht aufgrund der Anfragen von Rankcheckern – der Trend geht eindeutig zu personalisierten Suchergebnissen.

Personalisierte Suche macht Ranking Tools nutzlos
Google konzentriert sich zur Zeit extrem auf die Personalisierung von Suchergebnissen. Mit anderen Worten: für bestimmte Stichworte erschienen in Zürich andere Suchresultate als in Bern, Kurt und Petra, die beide in Bern leben, werden wiederum verschiedene Resultate zum selben Keyword erhalten. Durch Tools wie z.B. iGoogle, die Google Toolbar, Analytics etc. erhält Google eine fast unendliche Menge an Daten, welche zur Personalisierung von Suchergebnissen genutzt werden können und auch werden.

Es wird in Zukunft also extrem schwierig sein – und ist es bereits jetzt – verlässliche Ranking Daten über einzelne Keywords zu erhalten. Dabei stellt das Blocken von Rank Checkern weniger ein Problem dar (weil es dort draussen viele schlaue Köpfe gibt), vielmehr sind die relevanten Daten halt in den Benutzerprofilen abgespeichert, auf welche man als SEO keinen Zugriff hat.

Wenn nicht die Keywords messen, was denn dann?
Keywords sind natürlich immer noch wichtig. Der einzige Punkt ist, dass deren Messung nicht viel bringt. Für einen Webseitenbetreiber ist es viel wichtiger zu sehen, dass seine Seite zu bestimmten Suchbegriffen an Traffic zulegt. Es gibt wesentlich wichtigere Faktoren, als das Ranking von einer Handvoll einzelner Keywords. So zum Beispiel der Trafficzuwachs von Suchmaschinen Traffic oder die Konversionraten von Suchmaschinen Traffic je Keyword.

Es ist wesentlich wichtiger, sich einmal die Zeit zu nehmen und sich mit den Daten von z.B. Google Analytics auseinander zu setzen, als sich auf einzelne Keywords zu konzentrieren. Im Analytics Tool verstecken sich die Erkenntnisse, welche wesentlich tiefere Einsichten geben, als die paar Veränderungen aufgrund einiger weniger Keywords.

Kategorien: Social Media | Suchmaschinen

Kommentare: 3 Kommentare



Facebook-Links und likes: Helfen Sie der SEO Indexierung?

„Die Google Falle – Die unkontrollierte Weltmacht im Internet“ ist ein von Gerald Reischl verfasstes Buch, welches im Jahr 2008 bei Ueberreuter erschienen ist und welches sich zu lesen lohnt, wie auch immer man dem Suchmaschinen-Giganten gegenüber eingestellt ist.

Neben der Tatsache, dass Google riesige Datenmengen über ihre Benutzer sammelt, gibt dieses Buch relativ tiefe Einblicke in die weiteren Tätigkeiten des Weltkonzerns: Informationen sind alles, Datenschutz wird (bewusst?) vernachlässigt und der Einfluss der Europäischen Regierungen auf den weltweit tätigen US-Konzern ist sehr gering. Dabei gibt Gerald Reischl auch eine – nicht ganz befriedigende – Antwort auf die Frage, wie man der Macht des Internet-Giganten entgegenwirken kann… dieses Buch ist auf jeden Fall ein paar in der Hängematte verbrachte Stunden wert.

 

Don’t be evil!?

 

Kategorien: Social Media | Suchmaschinen

Kommentare: 3 Kommentare



Facebook-Links und likes: Helfen Sie der SEO Indexierung?

Mittels einer XML Sitemap kann man Suchmaschinen darüber informieren, welche Seiten innerhalb einer Webseite gecrawlt werden sollen. In ihrer einfachsten Form ist eine Sitemap eine XML-Datei, in welcher alle URLs aufgelistet sind, welche von der Suchmaschine gefunden werden sollen. Ein grosser Vorteil einer solchen Sitemap ist, dass die enthaltenen URLs mit zusätzlichen Metadaten pro URL versehen werden können.

So kann man der Suchmaschine beispielsweise übermitteln, welche Seiten wichtige, bzw. prioritäre Informationen enthalten. Es handelt sich hierbei um ein optionales Tag. Der in diesem Tag enthaltene Wert steht dabei relativ zur Relevanz der anderen Seiten, was den Suchmaschinen erlaubt, die Webseite aufgrund dieser Prioritäts-Richtlinien zu crawlen.

Weiter können zeitliche Informationen an die Suchmaschine übermittelt werden, wofür sich zwei andere Tags eignen: lastmod und changefreq. Lastmod teilt der Suchmaschine mit, wann die Seite die letzte Änderung erfahren hat, changefreq weist darauf hin, wie oft sich der Inhalt der entsprechenden Seite normalerweise ändert.

Mit einer XML Sitemap kann dem Suchmaschinen-Bot zusätzlich mitgeteilt werden, dass ausser den direkt erreichbaren Seiten noch mehr Seiten existieren, welche für den Bot nicht ohne Weiteres erreichbar sind. Benutzt man eine XML Sitemap, um der Suchmaschine solche Seiten zugänglich zu machen, sollte man sich grundsätzlich Gedanken über die Seiten-Architektur machen. Das Ziel einer guten Architektur ist es, jede einzelne Seite für eine Suchmaschine crawlbar zu machen, so dass eine XML Sitemap nicht für diese Zwecke „missbraucht“ werden muss..

Nicht zu verachten sind auch die Informationen, welche Sie erhalten, wenn Sie eine Sitemap einsetzen und bei Google Webmaster Central angemeldet sind. So können Sie zum Beispiel erfahren, wie oft Ihre Sitemap in einem bestimmten Zeitraum gecrawlt wurde, wieviele Seiten davon betroffen waren und wie lange dieser Crawl gedauert hat, was Ihnen bei Performance-Optimierungen weiterhelfen kann.

Weitere Informationen über XML-Sitemaps finden Sie bei Google.

 

Kategorien: Social Media | Suchmaschinen

Kommentare: 3 Kommentare



Facebook-Links und likes: Helfen Sie der SEO Indexierung?

CSS sind dafür bekannt, das Gestalten von schnell ladenden Seiten zu ermöglichen, welche sich später einfach anpassen lassen, ohne gross in der Code einer Webseite einzugreifen. Zusätzlich zu diesen Vorteilen, kann CSS auch Vorteile bringen, wenn man diese von einen SEO/SEM Standpunkt aus betrachtet:

  • Mittels CSS können Sie Ihre wichtigsten „SEO-Botschaften“ in Ihrem HTML Dokument ganz nach oben befördern, was eine signifikante Wirkung auf Ihr Ranking haben kann. Dies ist wahrscheinlich das wichtigste Anwendungsgebiet von CSS in Bezug auf SEO.
  • Ein solides CSS macht Ihre Webseite im Allgmeinen leichter und für Bots effizienter zu Crawlen, was zu einer besseren Indexierung der Seite führen kann.
  • CSS ermöglicht es, standard HTML-Tags anständig zu formatieren (z.B. <h1>). Mögen die <font>-Tags endlich von der Bildfläche verschwinden!

Zusätzlich kann CSS auch Ihre Online-Marketing-Bemühungen stärken:

  • Durch die einfach Anpassparkeit des Layouts via CSS, können Sie verschiedene Varianten Ihrer Webseite testen und herausfinden, welche Kombination (Farben, Hintergründe, Schriften etc.) am besten konvertieren.
  • Weniger Design- und Unterhaltungsarbeiten geben Ihrem Webmaster mehr Zeit, sich mit den wirklich wichtigen Dingen zu beschäftigen: Implementierung von mehr frischem Content und Umsetzung von SEO/SEM-Strategien.
Kategorien: Social Media | Suchmaschinen

Kommentare: 3 Kommentare



Facebook-Links und likes: Helfen Sie der SEO Indexierung?

Was tun, wenn Sie eine grosse Webseite haben und tausende Seiten schlichtweg nicht indexiert werden? Rand Fishkin von SEOmoz zeigt, wie’s geht… gucken & lernen!


SEOmoz Whiteboard Friday-Solving Indexation Problems

Kategorien: Social Media | Suchmaschinen

Kommentare: 3 Kommentare



Facebook-Links und likes: Helfen Sie der SEO Indexierung?

Google hat im Webmaster Help Center eine neue Seite zum Thema nofollow aufgeschaltet. Auf dieser Seite wird zuerst erklärt, was nofollow ist und warum es geschaffen wurde. Weiter wird klar gestellt, wie der Google Bot mit nofollowed Links umgeht, nämlich so: „We don’t follow them.“ Gleichzeitig weist Google einmal mehr darauf hin, dass andere Suchmaschinen nofollow eventuell anders behandeln – ein Punkt, dessen man sich bewusst sein sollte.

Neben den Aussagen zu „Untrusted Links“ und „Paid Links“ ist vor allem die folgende Aussage interessant und lässt einen gewissen Spielraum für Interpretationen im Hinblick auf „PageRank Sculpting“ zu:

„Crawl prioritization: Search engine robots can’t sign in or register as a member on your forum, so there’s no reason to invite Googlebot to follow „register here“ or „sign in“ links. Using nofollow on these links enables Googlebot to crawl other pages you’d prefer to see in Google’s index. However, a solid information architecture — intuitive navigation, user- and search-engine-friendly URLs, and so on — is likely to be a far more productive use of resources than focusing on crawl prioritization via nofollowed links.“

Natürlich ist es nicht von der Hand zu weisen, dass eine gute, solide Seitenarchitektur extrem wichtig für den Erfolg einer Webseite ist. Viel wichtiger ist aber, dass Google sagt, dass es in Ordnung ist, nofollowed Links für die Lenkung des Juice zu verwenden!

Kategorien: Social Media | Suchmaschinen

Kommentare: 3 Kommentare



Facebook-Links und likes: Helfen Sie der SEO Indexierung?

Bei Whitelabel-Marktplätzen kann oftmals beobachtet werden, dass unbewusst(?) der Suchmaschinen-Index gespamt wird.

So findet man im unten stehenden Beispiel auf Platz 4 der Google Suchresultate die original Webseite eines Schweizer Immobilien Portals für das Keyword „Immobilien“. Unmittelbar darunter aber erscheint ein für dieses Unternehmen unerwünschter Eintrag, welcher unter Umständen als Index Spam, bzw. Duplicate Content gewertet werden könnte, was im Extremfall dazu führen kann, dass die gesamte Webseite aus dem Index der Suchmaschine gelöscht wird, was ohne Zweifel fatale Auswirkungen auf Ihren Geschäftsgang haben würde.

Index Spam Beispiel

Zum Beispiel Inhalte/Texte verändern
Wenn Sie Texte schreiben, die im Netz verteilt werden, also auf verschiedenen Seiten erscheinen, benützen Sie nicht überall die selben Texte, sondern schreiben Sie diese wenn möglich um. Benutzen Sie Synonyme, ändern Sie die Struktur Ihrer Texte, reichern Sie Ihre Texte mit anderen Quellen an, so dass die Inhalte einzigartig werden.

Zum Beispiel Noindex, Nofollow einsetzen
Mit bedachtem Einsatz von Noindex und Nofollow können Sie steuern, welche Seiten Ihrer Whitelabel-Marktplätze von den Suchmaschinen indexiert werden sollen. Lesen Sie hier mehr über Noindex und Nofollow.

Entdeckt man, dass man viele identische Seiten im Index hat und stammen diese von verschiedenen Domains, ist es Zeit zu handeln. Suchmaschinen haben zum Ziel, möglichst qualitativ hochwertige Suchresultate an die Suchenden zu liefern. Werden z.B. zwei Webseiten (Domains) mit dem gleichen Inhalt gefunden, so wird früher oder später eine der beiden Webpräsenzen aus dem Index verschwinden – wäre doch schade, wenn es sich dabei um Ihre Hauptdomain handelte…

Kategorien: Social Media | Suchmaschinen

Kommentare: 3 Kommentare



ältere Beiträge anzeigen »