Ranking Faktoren Umfrage 2009 von SEOmoz

Die Umfrage-Ergebnisse zu den Search Engine Ranking Factors von SEOmoz sind in einer Präsentation von Rand Fishkin zu sehen:

SEOmoz befragt 70 SEOs und heraus kommt eine Ranking-Bibel.

[box]Fazit:
Im großen und Ganzen keine großen Änderungen zur Vorversion: gute Links, gute Links, gute Links…
Wie allerdings 14,7% der befragten SEOs der Meinung sind, valider HTML-Code hätte „Moderate Impact“ und 2,9% sogar „Significant Impact“ bleibt mir ein Rätsel :)[/box]

WordPress-Hack: Google wertet versteckte Links

Große Ranking-Sprünge müssen nicht immer nur Folge von eigenen Maßnahmen sein. Ein WordPress-Hack dürfte vielen älteren WP-Installationen derzeit Probleme bereiten. Konkret werden massenhaft versteckte Links aus dem Pharma-Umfeld direkt unterhalb des Body-Tags eingeschleust:

Versteckte Links

Der durchschnittliche Website-Betreiber dürfte davon erst erfahren, wenn es schon zu spät ist: Google indiziert die Links trotz display:none fleißig und verwendet sie auch als Meta-Description in den SERPs. Im Cache selber sieht man die Links nur im Quelltext. Google wertet also Keywords, die ein User niemals auf der Seite sieht. Bei einem konkreten Fall wurden die Bad-Neighbourhood-Links mit einem De-Ranking bestraft. Die betroffene Website rankte bislang für die Top-Keywords in den Top 10 und fiel nach der Indizierung der Links aus den Top 100 raus.

Ob man von diesem Hack betroffen ist, kann man auf verschiedene Wege herausfinden:

1) Im Quelltext schauen, wass nach dem Body-Tag steht, der Hack ist in den Kommentaren als „News“ getarnt.
2) Mit der site-Abfrage nach den üblichen Keywords suchen, z.B. „diet site:www.website.com“ oder einen Google News Alert darauf einrichten. Alternativ kann man sich auch die Descriptions bei den Ergebnissen anschauen. Die gehackten Seiten sind extrem groß, meist über 200KB.
3) Die Webmaster-Tools nach den von Googlebot gesehenen Inhalten checken:

Was sieht Googlebot

Generelle Hilfe bei Hacking-Angriffen gibt Google unter Best Practices zum Schutz vor Hacking-Angriffen

[box]Fazit: SEO-Motive spielen bei Hackern eine immer größere Rolle. Anstatt der Seite offensichtlich zu schaden, wird versucht unbemerkt Kapital aus versteckten Links zu schlagen. Schade nur, dass Google immer noch nicht in der Lage ist, versteckte Links auszuklammern. Immerhin schafft eine Reinclusion Request Abhilfe. Nach ca. 1 Woche wurde die betroffene Website wieder gefunden, wenn auch ein paar Positionen weiter hinten als sonst. Ähnliche Hacks werden an anderen Stellen, z.B. im Footer, eingeschleust. Updates auf die aktuellste WordPress-Version sind hier wichtig.[/box]

10 Tipps für mehr Traffic – Google Bildersuche optimieren

Die Google Bildersuche (offiziell „Bildsuche“) kann viel zusätzlichen Traffic auf eine Website bringen, vorausgesetzt, man wird an entsprechend prominenten Positionen gefunden. Der Stellenwert von Bildern hat sich im Zuge der „Universal Search“ nochmal deutlich erhöht, da Bilder innerhalb der Web-Suchergebnisse richtige Eyecatcher sind und Besucher magisch anziehen.

Mit den folgenden 10 Tipps sollen wichtige Optimierungsmöglichkeiten für eine gutes Bilder-Ranking vorgestellt werden:

1) Relevanter umliegender Text: Ein Bild mit sprechendem Dateinamen sowie vorhandenen Alt- und Title-Attributen nützt noch nicht viel, wenn der umliegende, sichtbare Fließtext nicht vorhanden oder nicht relevant ist. Insbesondere der Text unmittelbar vor dem Bild im Quelltext ist sehr wichtig. Dort sollte man zwingend auf die Keyword-Thematik eingehen, unter der später das Bild gefunden werden soll. Ideal sind ausreichend lange Textabschnitte mit mehr als 300 Zeichen vor und nach dem Bild.

2) Relevantes Alt-Attribut: Zweck des Alt-Attributs ist die Bereitstellung einer alternativen Beschreibung, d.h. der Text im Alt-Attribut fungiert als Platzhalter. Allein aus Usability-Gründen sollte dieses Attribut vorhanden sein, da sehbehinderte User sonst keine Möglichkeit haben, Informationen über ein Bild zu erhalten. Vom Umfang her sollte das Attribut kurz gehalten sein. Empfehlenswert sind 1-3 Wörter, wobei das zu optimierende Keyword enthalten sein muss. Das Attribut ist nicht sofort sichtbar und daher sekundärer Text, der nur im Zusammenspiel mit dem primären Text optimal wirken kann.

3) Relevantes Title-Attribut: Das Title-Attribut soll eine weitergehende Beschreibung eines Bildes ermöglichen und wird angezeigt, wenn man mit dem Mauscursor über das Bild fährt. So soll in einem kurzen Satz der Inhalt des Bildes beschrieben werden. Während das Alt-Attribut kurz gehalten werden sollte (1-3 Wörter), kann das Title-Attribut etwas länger ausfallen. Empfehlenswert sind 4-6 Wörter, wobei das zu optimierende Keyword enthalten sein muss.

4) Sprechender Dateiname mit Keyword: Der Dateiname ist für die Bildsuche ebenfalls von Bedeutung. Anstatt eines „682344955.jpg“ sollte man auf „keyword.jpg“ zurückgreifen. Bei mehreren Keywords mit Bindestrich trennen.

5) Ranking-Faktoren der zugeordneten Seiten: Ein Bild hat es schwer zu ranken, wenn die zugehörige Seite jegliche SEO-Basics vermissen lässt. Ein besonderes Augenmerk sollte dem Title-Tag der Seite gelten. Dort empfiehlt es sich neben dem Keyword auch den Zusatz „Bild“ bzw. „Bilder“ anzugeben. Das zu optimierende Keyword sollte auch in internen und externen Links vorkommen, insbesondere in der Nähe des Bildes im Quelltext.

6) Dateiformat beachten: Hier ist wichtig, um was für eine Art von Bild es sich handelt: Bei hochauflösenden Fotos sollte man auf JPG (am verbreitesten) oder PNG zurückgreifen. Für Grafiken in geringerer Auflösung ist GIF empfehlenswert. In jedem Falle sollte man beachten, dass die Wahl des Dateiformats die optionalen Filter beeinflusst. User die speziell nach Fotos von Personen suchen, nutzen ggf. die Möglichkeiten der erweiterten Bildsuche und filtern nach JPG-Dateien.

7) Dateigröße und Height und Width-Attribute beachten: Kein User möchte warten bis eine kleine Grafik mit 20 MB geladen ist. Ebenso wenig sollte das Bild verpixelt sein. Zu große oder qualitativ minderwertige Bilder haben es auch im Ranking schwer bzw. werden überhaupt nicht aufgenommen. Es gilt einen Kompromiss zwischen Qualität und Dateigröße zu finden. Empfehlenswert sind Größen zwischen 25 und 50 KB, Tendenz steigend, da mit schnelleren Internetverbindungen auch qualitativ bessere Bilder mögilch sind. 100 KB sollte aktuell die Obergrenze sein. Die Bilder sollten über Height und Width-Attribute verfügen. Google unterscheidet bei der Größe zwischen klein, mittel, groß und extra groß. Diese Filtermöglichkeiten müssen beachtet werden.

8) Anzahl Bilder: Im Idealfall sollte nur ein zu optimierendes Bild auf der Seite existieren (ausgenommen sind natürlich die übrigen Layout-Grafiken, Logos etc.). Es ist nicht sinnvoll mit 20 Bildern auf einer Seite paralell zu versuchen ein gutes Ranking zu erzielen.

9) Einstellungen & Tools checken: Einige User wundern sich, warum sie trotz aller Optimierung keinen Traffic über die Bildsuche erhalten. Oftmals ist dann ein Eintrag in der robots.txt schuld, welcher das Bildverzeichnis ausschließt. Raus damit! In den Google Webmaster Tools sollte man die Option „Meine Website zu Google Image Labeler hinzufügen“ in Einstellungen > Bildsuche aktivieren. Google weist darauf hin, dass „mit diesen Tools […] die Indizierung und Suchqualität der Bilder verbessert“ wird.

10) Framebreaker Script: Wenn man bei Google auf ein Bild-Suchergebnis klickt, erscheint das Ergebnis zunächst in einem Frame, welcher die Möglichkeit bietet, direkt das Vollbild anzuzeigen. Genau hier liegt das Problem: Viele User nutzen die Möglichkeit und schauen sich direkt das Bild an, ohne die umliegende Webseite. Dass bedeutet in der Praxis oftmals nutzloser Traffic. Kein Website-Betreiber sieht es gern, wenn seine Inhalte innerhalb eines Frames genutzt werden. Hier schafft ein Framebreaker Script Abhilfe, welches dafür sorgt, dass die User auf der Webseite des Bildes ohne Frame landen.


<script language="JavaScript" type="text/javascript">
if ( top.location != self.location ) { top.location = self.location; }
</script>

Ein Test bei einer kleineren, aber sehr bildlastigen Website ergab einen enormen Anstieg der direkten Zugriffe nach Einbau.

Bildersuche Framebreaker Script

Natürlich sinkt die Anzahl der verweisenden Zugriffe gleichzeitig etwas. Verrechnet man beide Zugriffsquellen ergab sich aber ein durchschnittlicher Besucheranstieg um 25%.

[box]Fazit: Mit etwas Aufwand ist es möglich, deutlich mehr aus der Bildersuche herauszuholen[/box]

Neuer Google Sitemap-Generator

Der Google Webmaster Central Blog hat einen neuen Sitemap-Generator vorgestellt. Die wichtigsten Eckdaten und Features sind:

  • Automatisierte Sitemap-Erzeugung anhand des Webserver-Traffics, der Logfiles und der Server-Files
  • Open-Source Server-Plug-In sowohl für Linux/Apache als auch für Microsoft-IIS
  • Ping an die Google Blog-Suche möglich

Nach dem Sammeln der URLs kann der Generator XML-Sitemaps, Mobile Sitemaps oder Code-Search-Sitemaps erzeugen.

[box]Fazit: Sitemaps sind eine gute Möglichkeit URLs vollständiger und schneller in den Google-Index zu bekommen. Allerdings garantiert eine Sitemap noch nicht die Aufnahme, sondern ist lediglich ein Hinweis darüber, welche URLs existieren oder geändert wurden. Seiten die eine gute URL-Struktur haben und sich nicht so häufig ändern, müssen also nicht unbedingt Gebrauch von Sitemaps machen.[/box]

Ladezeit Check – SEO-relevant?

Eines der Grundprinzipien von Google lautet: „Fast is better than slow.“ Webseiten die schnell laden verbessern die Nutzerzufriedenheit und es ist Googles größtes Anliegen, das Surf-Erlebnis der User in den Mittelpunkt zu stellen. Niemand möchte 20 Sekunden lang warten, bis eine Seite geladen ist.

Aus diesem Grund ist es nicht verwunderlich, dass Google seit April 2008 die Ladezeit einer Zielseite auch in den Qualitätsfaktor bei AdWords einfließen lässt. Wie die Ladezeit von Google eingeschätzt wird, erfährt man, indem man sich die Details des Qualitätsfaktors anzeigen lässt (hierzu innerhalb einer Anzeigengruppe auf den Reiter Keywords gehen, über das Lupensymbol fahren und „Details und Empfehlungen »“ aufrufen):

Ladezeit Google AdWords

Bei welchem Grenzwert handelt es sich nun um eine langsame Seite? Google gibt hierzu folgende Infos:

[box]Derzeit berechnen wir die Ladezeiten auf Basis der Zeit, die der Download des HTML-Contents Ihrer Zielseite in Anspruch nimmt. HTML-Ladezeit beträgt normalerweise 10 bis 30 Prozent der Gesamtladezeit einer Seite. Eine dreisekündige Differenz vom regionalen Durchschnitt weist daher auf eine deutlich größere Abweichung hin. Der regionale Durchschnitt hängt vom Standort des Servers ab, auf dem Ihre Website gehostet wird. Sollte Ihre Website auf einem Server in Indien gehostet sein, wird die Ladezeit Ihrer Zielseite mit der durchschnittlichen Ladezeit in dieser Region Indiens verglichen. Dies gilt auch, wenn ihre Website auf eine Zielgruppe in den USA ausgerichtet ist.[/box]

Ob die Ladezeit neben den bezahlten Anzeigen auch Einfluss auf die natürlichen Suchergebnisse hat wird kontrovers diskutiert.
Zieht man nur die Nutzererfahrung heran, würde es Sinn machen, Seiten die zu lange laden abzuwerten und „schnelle Informationen“ aufzuwerten. Wenn man als Website-Betreiber ein Auge auf die Ladezeit hat, kann man also nichts falsch machen.

Welche Tools sind für einen Ladezeit-Check geeignet?

Es existieren tausende von Ladezeit-Checkern im Netz, darunter gibt es aber auch viel Schrott. Zwei zuverlässige Tools sind z.B. pingdom und der von ANW entwickelte Checker den 1und1 einsetzt.

Ladezeit checken pingdom

Das Tool von pingdom ist sehr ausführlich und speichert das Test-Datum, so dass man später mit vorherigen Tests vergleichen kann.

[box]Fazit: Für AdWords-Zielseiten ist es ohnehin Pflicht die Ladezeit im Auge zu behalten. Auch sonstige Seiten sollten diesen Aspekt nicht vernachlässigen. Selbst wenn es aktuell für das Ranking noch nicht bzw. nur sehr geringe Auswirkungen hat, profitieren die User davon enorm. Bei WordPress sind oftmals JavaScripts und lahme Plugins verantwortlich für lange Ladezeiten.[/box]
Menü