Suchmaschinenoptimierung Hamburg mit Suchmaschinen-Experte

Blog

  • Exact Match Domain Update

    Exact Match Domain Update

    Bei der Zuordnung von Suchbegriffen, den Keywords, zur Relevanz einer Website wurden Domainnamen stets eine besondere Gewichtigkeit zugeordnet. Sind bestimmte Suchbegriffe auch im Domainnamen zu finden so kann dies zu einer positiven Beurteilung der Relevanz führen. Mit dem Google Exact Match Domain Update vom 27.09.2012 wurden Algorithmen initiiert, die einer ausschließlichen Fokussierung auf diesen Effekt entgegen zu wirken. Dies betrifft maßgeblich Internetinhalte, die einerseits bestimmte relevante Keywords über den Domainnamen in den Vordergrund stellen, aber gleichzeitig von inhaltlich minderwertiger Qualität sind.

    Laut Google waren zum Zeitpunkt des Updates lediglich 0,6% der englischsprachigen Websites von der Maßnahme betroffen. Das Exact Match Domain Update stellt keine grundsätzliche Abstrafung und auch keine Deindexierung von Keyword-Domainnamen dar. Zielsetzung war es, minderwertige Inhalte, die primär auf Keyordplatzierung im Domainnamen setzen, nicht im gleichen Maße positiv zu bewerten, wie andere Keyword-Domains. Ein positiver Effekt von Keyword-Domains kann sich bei der Veröffentlichung hochwertiger Internetinhalte weiterhin einstellen.

  • Duplicate Content

    Duplicate Content

    Der Begriff „Duplicate Content“ grenzt sich ab vom sogenannten „Unique Content“ und definiert Inhalte im Web, die mehrfach im selben Wortlaut veröffentlicht worden sind. (mehr …)

  • Feed

    Feed

    Als „Feed“ werden im Web verbreitete Datenströme bzw. Nachrichtenströme bezeichnet. Daher auch oft auch als Newsfeed bekannt. Als Datenformate haben sich RSS und Atom etabliert. RSS ist ein spezieller XML Dialekt. Beim Verbreiten von diesen News Feeds werden Inhalte ohne Eingriff des Webmasters regelmäßig aktualisiert. Eine Website aktualisiert dabei die eigenen Inhalte, in dem sie auf einen Webservice eines anderen Servers zugreift, auf dem die Daten gespeichert sind.

    (mehr …)

  • Frameset

    Frameset

    Framesets waren um die Jahrtausendwende ein beliebtes Konzept Websites zu gestalten. Die von Netscape entwickelte Technologie hatte den Vorteil, dass immer wiederkehrende Elemente einer Website, wie etwa die Menüstruktur, nur einmal als separates Element gespeichert werden musste und in jede einzelne Unterseite über das Frameset-Konzept eingebunden werden konnte. (mehr …)

  • Google

    Google

    Google ist die marktführende Suchmaschine, die in Deutschland im Jahre 2012 einen Marktanteil von 96% erreicht hat. Aufgrund dieser Marktposition richtet sich die Suchmaschinenoptimierung meist primär an den Richtlinien von Google aus. (mehr …)

  • Google Sitemaps

    Google Sitemaps

    Suchmaschinen indexieren Unterseiten einer Domain normalerweise mittels des Weiterverfolgens von internen Links (Verweisen). Unterseiten, die nicht intern über einen direkten Link mit anderen indexierten Inhalten verknüpft sind, laufen Gefahr nicht indexiert zu werden. Mit Hilfe von Google Sitemaps kann die Suchmaschine darin unterstützt werden, auch diese Inhalte aufzufinden und zu indexieren. (mehr …)

  • Hubs

    Hubs

    Ein Hub ist eine Website, die über eine große Anzahl von ausgehenden Links verfügt und Websites auf diese Weise miteinander verbindet. (mehr …)

  • Hummingbird

    Hummingbird

    Ohne Vorankündigung wurde im August 2013 von Google der neue Suchalgorithmus „Hummingbird“ eingeführt. Pünktlich zum 15 Geburtstag dieser Suchmaschine wurde diese Änderung vorgestellt, die bereits einen Monat zuvor von Webmastern und Suchmaschinenoptimierern weitgehend unbemerkt in die Suchergebnisse eingeflossen war. (mehr …)

  • Indexierung

    Indexierung

    Der Begriff Indexierung definiert die Aufnahme von Websites in den Index einer Suchmaschine. Fälschlicherweise wird auch gelegentlich der Begriff „Indizierung“ verwendet. (mehr …)

  • JavaScript Cloaking

    JavaScript Cloaking

    Javascript ist eine Scriptsprache, die von Netscape entwickelt worden war. Javascript wird Browserseitig ausgeführt und kann dynamische Funktionen während der Laufzeit einer Website durchführen. Javascript wird auch für Cloaking Techniken eingesetzt. Unter Cloaking versteht man Maßnahmen, die dazu beitragen, dass eine Website von Mensch und Suchmaschine unterschiedlich interpretiert werden. (mehr …)

  • Keyword Density

    Keyword Density

    Als ein Keyword im Sinne der Suchmaschine wird ein Schlüsselwort verstanden, das in einer Suchmaschine abgefragt wird, auch Suchbegriff genannt. Dieses Schlüsselwort kann auch aus einer Zusammensetzung mehrerer Wörter bestehen. (mehr …)

  • Knowledge Graph von Google & Facebook

    Knowledge Graph von Google & Facebook

    Der Begriff Knowledge Graph steht für aufbereitete bzw. kompilierte Suchergebnisse zu häufig nachgefragten Themengebieten (Topics) und ist ein Schritt zur semantischen Suche. Sowohl die Suchmaschine Google, wie auch das Social Network Facebook bieten dieses System. Der Knowledge Graph von Google wurde im Mai 2012 in den Vereinigten Staaten und am 5. Dezember 2012 in Deutschland eingeführt. (mehr …)