Social Media & Suchmaschinenoptimierung: Unterschied zwischen den Versionen
JassyS (Diskussion | Beiträge) |
|||
(6 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt) | |||
Zeile 2: | Zeile 2: | ||
Unter der Bezeichnung '''Social Media''' werden verschiedene Webangebote mit einem sozialen Charakter verstanden – sogenannte soziale Netzwerke. Bekannte Social Media Plattformen sind unter anderem [https://de-de.facebook.com/=8 Facebook], [https://twitter.com/?lang=de/=8 Twitter], [https://www.instagram.com/=8 Instagram] und [https://www.xing.com/=8 Xing] sowie verschiedene Blogs, Foren und auch Wikis. | Unter der Bezeichnung '''Social Media''' werden verschiedene Webangebote mit einem sozialen Charakter verstanden – sogenannte soziale Netzwerke. Bekannte Social Media Plattformen sind unter anderem [https://de-de.facebook.com/=8 Facebook], [https://twitter.com/?lang=de/=8 Twitter], [https://www.instagram.com/=8 Instagram] und [https://www.xing.com/=8 Xing] sowie verschiedene Blogs, Foren und auch Wikis. | ||
== Geschichte der Suchmachschinenoptimierung == | |||
Webmaster und Content Provider begannen Mitte der 90er Jahre, Websites für Suchmaschinen zu optimieren, da die ersten Suchmaschinen das frühe Web katalogisierten. Ursprünglich mussten alle Webmaster nur die Adresse einer Seite oder URL an die verschiedenen Suchmaschinen übermitteln, die eine "Spinne" senden würden, um diese Seite zu "crawlen", Links zu anderen Seiten daraus zu extrahieren und Informationen zurückzugeben, die auf der zu indexierenden Seite gefunden wurden. Der Prozess beinhaltet das Herunterladen einer Seite durch eine Suchmaschinenspinne und deren Speicherung auf dem eigenen Server der Suchmaschine. Ein zweites Programm, bekannt als Indexer, extrahiert Informationen über die Seite, wie z.B. die darin enthaltenen Wörter, wo sie sich befinden, und jede Gewichtung für bestimmte Wörter, sowie alle Links, die die Seite enthält. Alle diese Informationen werden dann in einen Planer gestellt, um zu einem späteren Zeitpunkt zu crawlen. | |||
Website-Besitzer erkannten den Wert eines hohen Rankings und der Sichtbarkeit in den Suchmaschinenergebnissen und schufen damit eine Möglichkeit sowohl für White Hat als auch für Black Hat SEO-Praktizierende. Laut Branchenanalyst Danny Sullivan kam der Begriff "Suchmaschinenoptimierung" wahrscheinlich 1997 zum Einsatz. Sullivan führt Bruce Clay als eine der ersten Personen an, die den Begriff populär gemacht haben. Am 2. Mai 2007 versuchte Jason Gambert, den Begriff SEO zu kennzeichnen, indem er das Markenamt in Arizona davon überzeugte, dass SEO ein "Prozess" ist, der die Manipulation von Keywords und keinen "Marketing-Service" beinhaltet. | |||
Frühe Versionen von Suchalgorithmen, die auf webmasterseitig bereitgestellten Informationen wie dem Keyword-Meta-Tag oder Indexdateien in Suchmaschinen wie ALIWEB basierten. Meta-Tags bieten einen Leitfaden für den Inhalt jeder Seite. Die Verwendung von Metadaten zur Indexierung von Seiten erwies sich jedoch als wenig zuverlässig, da die Wahl der Keywords im Meta-Tag durch den Webmaster möglicherweise eine ungenaue Darstellung des tatsächlichen Inhalts der Website darstellen könnte. Ungenaue, unvollständige und inkonsistente Daten in Meta-Tags konnten und wollten dazu führen, dass Seiten für irrelevante Suchanfragen bewertet wurden. Web-Content-Provider manipulierten auch einige Attribute innerhalb der HTML-Quelle einer Seite, um ein gutes Ranking in Suchmaschinen zu erreichen. 1997 erkannten Suchmaschinengestalter, dass Webmaster sich bemühten, ein gutes Ranking in ihrer Suchmaschine zu erreichen, und dass einige Webmaster sogar ihr Ranking in Suchergebnissen manipulierten, indem sie Seiten mit übermäßigen oder irrelevanten Keywords füllten. Frühe Suchmaschinen wie Altavista und Infoseek haben ihre Algorithmen angepasst, um zu verhindern, dass Webmaster Rankings manipulieren. | |||
Indem sie sich so sehr auf Faktoren wie die Keyword-Dichte verließen, die ausschließlich unter der Kontrolle eines Webmasters lagen, litten frühe Suchmaschinen unter Missbrauch und Ranking-Manipulation. Um ihren Nutzern bessere Ergebnisse zu liefern, mussten sich die Suchmaschinen anpassen, um sicherzustellen, dass ihre Ergebnisseiten die relevantesten Suchergebnisse zeigten, und nicht unabhängige Seiten, die von skrupellosen Webmastern mit zahlreichen Keywords gefüllt wurden. Da der Erfolg und die Popularität einer Suchmaschine von ihrer Fähigkeit bestimmt wird, die relevantesten Ergebnisse für eine bestimmte Suche zu liefern, könnten schlechte oder irrelevante Suchergebnisse dazu führen, dass Benutzer andere Suchquellen finden. Suchmaschinen reagierten mit der Entwicklung komplexerer Ranking-Algorithmen unter Berücksichtigung zusätzlicher Faktoren, die für Webmaster schwieriger zu manipulieren waren. Im Jahr 2005 wurde eine jährliche Konferenz, AIRWeb, Adversarial Information Retrieval on the Web, ins Leben gerufen, um Praktiker und Forscher zusammenzubringen, die sich mit Suchmaschinenoptimierung und verwandten Themen befassen. | |||
Unternehmen, die zu aggressive Techniken einsetzen, können ihre Kunden-Websites von den Suchergebnissen ausschließen lassen. Im Jahr 2005 berichtete das Wall Street Journal über ein Unternehmen, Traffic Power, das angeblich risikoreiche Techniken einsetzte und diese Risiken nicht an seine Kunden weitergab. Das Wired Magazine berichtete, dass das gleiche Unternehmen Blogger und SEO Aaron Wall verklagt hat, weil sie über das Verbot geschrieben hatten. Matt Cutts von Google bestätigte später, dass Google Traffic Power und einige seiner Kunden tatsächlich verboten hat. | |||
Einige Suchmaschinen haben auch die SEO-Branche erreicht und sind häufige Sponsoren und Gäste bei SEO-Konferenzen, Webchats und Seminaren. Große Suchmaschinen bieten Informationen und Richtlinien, um bei der Optimierung der Website zu helfen. Google hat ein Sitemaps-Programm, um Webmastern zu helfen, zu erfahren, ob Google Probleme bei der Indizierung ihrer Website hat, und stellt auch Daten über den Google-Verkehr auf der Website zur Verfügung. Bing Webmaster Tools bietet Webmastern eine Möglichkeit, eine Sitemap und Webfeeds einzureichen, ermöglicht es Benutzern, die "Crawl Rate" zu bestimmen und den Indexstatus der Webseiten zu verfolgen. | |||
== Angewandte Suchmaschinenoptimierung == | == Angewandte Suchmaschinenoptimierung == | ||
Zeile 17: | Zeile 32: | ||
Unter Onpage Optimierung versteht man alle Maßnahmen zur [[Suchmaschinenoptimierung]], die direkt auf der Homepage stattfinden, also technische Parameter, wie etwa Sitemaps, Metadaten oder Navigationsstrukturen (und weitere). Auf der Website sollen durch zuvor bewältigte [[Keyword]]-Recherche die daraus resultierenden Stichwörter im Title-Element, in Überschriften, in Anchor-Elementen der [[Hyperlink]]s etc. verwendet werden. Dies setzt jedoch Informatik-Kenntnisse voraus und sollte demnach mithilfe eines Informatikers umgesetzt werden, insofern kein eigenen Kenntnisse vorhanden sind. | Unter Onpage Optimierung versteht man alle Maßnahmen zur [[Suchmaschinenoptimierung]], die direkt auf der Homepage stattfinden, also technische Parameter, wie etwa Sitemaps, Metadaten oder Navigationsstrukturen (und weitere). Auf der Website sollen durch zuvor bewältigte [[Keyword]]-Recherche die daraus resultierenden Stichwörter im Title-Element, in Überschriften, in Anchor-Elementen der [[Hyperlink]]s etc. verwendet werden. Dies setzt jedoch Informatik-Kenntnisse voraus und sollte demnach mithilfe eines Informatikers umgesetzt werden, insofern kein eigenen Kenntnisse vorhanden sind. | ||
Im Gegensatz zur „Offpage Optimierung“, bei der es um die Herausbildung einer Linkstruktur geht. | Im Gegensatz zur „Offpage Optimierung“, bei der es um die Herausbildung einer Linkstruktur geht. | ||
=== Reverse Engineering === | |||
Reverse Engineering bedeutet frei übersetzt "umgekehrter Maschinenbau". Hierbei wird ein Produkt in seine Einzelteile aufgespalten und deren Informationen und Sachzusammenhänge analysiert. So können Rückschlüsse auf Funktions- und Fertigungsprinzipien geschlossen werden. Dies kann dazu dienen, das eigene Produkt oder die von Wettbewerbern besser kennen zulernen und neue Möglichkeiten der Differenzierung zu erschließen. | |||
Reverse Engineering wird dazu verwendet Such- und Indizierungsalgorithmen großer [[Suchmaschine]]n zu entdecken und zu verstehen. Anhand dieser Informationen lässt sich die eigene Website in einem solchen Maße beeinflussen, dass sie bei Suchergebnissen ([[SERPs]]) höher gerankt wird und somit für den Suchenden sichtbarer ist. | |||
=== Keyword-Recherche === | === Keyword-Recherche === | ||
Um die richtigen [[Keyword]]s für die Person oder das Unternehmen zu finden, sind verschiedene Schritte nötig, um erfolgreich an diese zu gelangen. Darunter fällt zunächst die Suche auf der eigenen Website, welche Stichworte in den eigenen Texten vorkommen. Weitere Schritte sind dann durch beispielsweise [https://adwords.google.com/intl/de_de/home/tools/keyword-planner/ Google AdWords Keyword Planner] Synonyme oder assoziierte Begriffe zu finden und diese daraufhin in der Google-Suche zu untersuchen. Auch ist es ratsam, mehrere Beteiligte über die Stichworte schauen zu lassen und auch Wettbewerber-Webseiten nach geeigneten Keywords zu durchforsten. | Um die richtigen [[Keyword]]s für die Person oder das Unternehmen zu finden, sind verschiedene Schritte nötig, um erfolgreich an diese zu gelangen. Darunter fällt zunächst die Suche auf der eigenen Website, welche Stichworte in den eigenen Texten vorkommen. Weitere Schritte sind dann durch beispielsweise [https://adwords.google.com/intl/de_de/home/tools/keyword-planner/ Google AdWords Keyword Planner] Synonyme oder assoziierte Begriffe zu finden und diese daraufhin in der Google-Suche zu untersuchen. Auch ist es ratsam, mehrere Beteiligte über die Stichworte schauen zu lassen und auch Wettbewerber-Webseiten nach geeigneten Keywords zu durchforsten. | ||
Zeile 23: | Zeile 43: | ||
Aus den erarbeiteten Keywords lässt sich jedoch mehr herausholen – Was am wichtigsten ist, ist die Bindung an den Leser bzw. Kunden. Die Website kann zwar durch technische Optimierung leicht auffindbar sein, diese muss den potentiellen Lesern jedoch auch einen Mehrwert bieten und einen Grund, lesenswert zu sein. | Aus den erarbeiteten Keywords lässt sich jedoch mehr herausholen – Was am wichtigsten ist, ist die Bindung an den Leser bzw. Kunden. Die Website kann zwar durch technische Optimierung leicht auffindbar sein, diese muss den potentiellen Lesern jedoch auch einen Mehrwert bieten und einen Grund, lesenswert zu sein. | ||
Die Content-Strategie kann zweierlei umfassen – einerseits der Inhalt auf der Website, aber auch die Aktivitäten auf den Social-Media-Plattformen erhöhen den PageRank. Für beides, sowohl Website, als auch Social-Media-Profile, müssen individuelle Inhalte, also Unique Content, erstellt werden. Es ist wichtig, auf Beiträge der Website hinzuverlinken, jedoch darf dies allein nicht die Profile füllen. Auch wichtig ist, dass jedes erstellte Profil | Die Content-Strategie kann zweierlei umfassen – einerseits der Inhalt auf der Website, aber auch die Aktivitäten auf den Social-Media-Plattformen erhöhen den PageRank. Für beides, sowohl Website, als auch Social-Media-Profile, müssen individuelle Inhalte, also Unique Content, erstellt werden. Es ist wichtig, auf Beiträge der Website hinzuverlinken, jedoch darf dies allein nicht die Profile füllen. Auch wichtig ist, dass jedes erstellte Profil eigene Texte bekommt, diese dürfen sich aber inhaltlich ähneln. | ||
Dem Unique Content steht der sog. Duplicate Content gegenüber, wörtlich: Doppelter Inhalt und bezeichnet Texte und Inhalte, die identisch auf mehreren Seiten bzw. Unterseiten vorkommen. Weitere Beispiele für Duplicate Content können sein: eine identische URL, nur mit dem Unterschied von http://, https:// und www oder eine identische URL, die sich nur durch Groß- und Kleinschreibung unterscheidet. Am Leichtesten zu ermitteln ist der Duplicate Content, indem man die betroffene Textstelle bei Google ins Suchfeld kopiert, in Anführungszeichen setzt und die Suchmaschinen nach dem Text suchen lässt. | |||
Bedeutet also – Die Website muss sowohl technisch auf Vordermann gebracht werden, als auch qualitativ hochwertige Einträge beinhalten; Die erstellten Social-Media-Profile betten sowohl diese Einträge ein und erhalten eigene Inhalte, die den Nutzer mehr einbeziehen und eine direkte Bindung aufbauen. | Bedeutet also – Die Website muss sowohl technisch auf Vordermann gebracht werden, als auch qualitativ hochwertige Einträge beinhalten; Die erstellten Social-Media-Profile betten sowohl diese Einträge ein und erhalten eigene Inhalte, die den Nutzer mehr einbeziehen und eine direkte Bindung aufbauen. | ||
== Suchmaschinenoptimierung mit Social Media == | == Suchmaschinenoptimierung mit Social Media == | ||
Mit den sozialen Webdiensten und Angeboten (Social Media) lassen sich sowohl die Sichtbarkeit in Suchmaschinen als auch der Bekanntheitsgrad eines Unternehmens oder einer Marke verbessern beziehungsweise erhöhen. Mit der Nutzung von sozialen Netzwerken können Firmen unter anderem sich und ihre Produkte nicht nur einem weltweiten Publikum präsentieren, sondern auch mit Kunden und Interessenten über Facebook, Twitter & Co. in direkten Kontakt treten. Darüber hinaus können sie auch von einer modernen Form der altbekannten Mundpropaganda – das „Liken“ und Bewerten – profitieren, wenn Kunden beispielsweise ihre Erfahrungen mit einem Unternehmen oder mit einem Produkt in ihrem sozialen Netzwerk mit ihren Freunden teilen. | Mit den sozialen Webdiensten und Angeboten (Social Media) lassen sich sowohl die Sichtbarkeit in Suchmaschinen als auch der Bekanntheitsgrad eines Unternehmens oder einer Marke verbessern beziehungsweise erhöhen. Mit der Nutzung von sozialen Netzwerken können Firmen unter anderem sich und ihre Produkte nicht nur einem weltweiten Publikum präsentieren, sondern auch mit Kunden und Interessenten über Facebook, Twitter & Co. in direkten Kontakt treten. Darüber hinaus können sie auch von einer modernen Form der altbekannten Mundpropaganda – das „Liken“ und Bewerten – profitieren, wenn Kunden beispielsweise ihre Erfahrungen mit einem Unternehmen oder mit einem Produkt in ihrem sozialen Netzwerk mit ihren Freunden teilen. | ||
Zeile 45: | Zeile 68: | ||
[http://www.backlinktest.com/ Backlink-Test] | [http://www.backlinktest.com/ Backlink-Test] | ||
[http://www.thinkpink.com/bp/Thesis/Thesis.pdf] | |||
[https://searchenginewatch.com/sew/news/2048891/intro-search-engine-optimization] | |||
[https://web.archive.org/web/20100423051708/http://forums.searchenginewatch.com/showpost.php?p=2119] | |||
[https://people.well.com/user/doctorow/metacrap.htm] | |||
[http://users.monash.edu/~lloyd/tilde/InterNet/Search/1998_WWW7.html] | |||
[https://www.forbes.com/sites/jaysondemers/2016/01/20/is-keyword-density-still-important-for-seo/2/#2ef69ba36733] | |||
[https://www.wsj.com/articles/SB112714166978744925?apl=y&r=947596] | |||
[https://support.google.com/webmasters/answer/35769] | |||
[https://www.bing.com/webmaster/help/webmaster-guidelines-30fba23a] | |||
[https://support.google.com/webmasters/answer/156184?hl=en&visit_id=636873232734491635-268941363&rd=2&ref_topic=4581190] | |||
[https://www.seokratie.de/duplicate-content/ Seokratie] | |||
[https://wirtschaftslexikon.gabler.de/definition/reverse-engineering-45260] | |||
[https://www.in-seo.de/tag/reverse-engineering/] | |||
== Weblinks == | == Weblinks == | ||
[https://support.google.com/webmasters/answer/35769?hl=de Google Support Richtlinien für Webmaster]<br /> | [https://support.google.com/webmasters/answer/35769?hl=de Google Support Richtlinien für Webmaster]<br /> | ||
[https://support.google.com/webmasters/answer/7451184?hl=de Google - Einführung in die Suchmaschinenoptimierung]<br /> | [https://support.google.com/webmasters/answer/7451184?hl=de Google - Einführung in die Suchmaschinenoptimierung]<br /> |
Aktuelle Version vom 25. September 2019, 19:51 Uhr
Suchmaschinenoptimierung (engl.: Search Engine Optimization – kurz: SEO) umfasst in erster Linie alle Maßnahmen, um das Ranking beziehungsweise die Sichtbarkeit einer Internetseite in den Suchergebnissen von Suchmaschinen wie Google, Bing & Co. zu verbessern. Die verbreitetsten Maßnahmen sind Keyword-Analyse und -Optimierung, und das sowohl im Offpage- als auch im Onpage-Bereich. Hierzu zählen unter anderem die optimale Anzahl und Platzierung von relevanten Keywords im Content der Website sowie das Setzen von Backlink (Linkbuilding) auf anderen Internetseiten oder in Foren.
Unter der Bezeichnung Social Media werden verschiedene Webangebote mit einem sozialen Charakter verstanden – sogenannte soziale Netzwerke. Bekannte Social Media Plattformen sind unter anderem Facebook, Twitter, Instagram und Xing sowie verschiedene Blogs, Foren und auch Wikis.
Geschichte der Suchmachschinenoptimierung
Webmaster und Content Provider begannen Mitte der 90er Jahre, Websites für Suchmaschinen zu optimieren, da die ersten Suchmaschinen das frühe Web katalogisierten. Ursprünglich mussten alle Webmaster nur die Adresse einer Seite oder URL an die verschiedenen Suchmaschinen übermitteln, die eine "Spinne" senden würden, um diese Seite zu "crawlen", Links zu anderen Seiten daraus zu extrahieren und Informationen zurückzugeben, die auf der zu indexierenden Seite gefunden wurden. Der Prozess beinhaltet das Herunterladen einer Seite durch eine Suchmaschinenspinne und deren Speicherung auf dem eigenen Server der Suchmaschine. Ein zweites Programm, bekannt als Indexer, extrahiert Informationen über die Seite, wie z.B. die darin enthaltenen Wörter, wo sie sich befinden, und jede Gewichtung für bestimmte Wörter, sowie alle Links, die die Seite enthält. Alle diese Informationen werden dann in einen Planer gestellt, um zu einem späteren Zeitpunkt zu crawlen.
Website-Besitzer erkannten den Wert eines hohen Rankings und der Sichtbarkeit in den Suchmaschinenergebnissen und schufen damit eine Möglichkeit sowohl für White Hat als auch für Black Hat SEO-Praktizierende. Laut Branchenanalyst Danny Sullivan kam der Begriff "Suchmaschinenoptimierung" wahrscheinlich 1997 zum Einsatz. Sullivan führt Bruce Clay als eine der ersten Personen an, die den Begriff populär gemacht haben. Am 2. Mai 2007 versuchte Jason Gambert, den Begriff SEO zu kennzeichnen, indem er das Markenamt in Arizona davon überzeugte, dass SEO ein "Prozess" ist, der die Manipulation von Keywords und keinen "Marketing-Service" beinhaltet.
Frühe Versionen von Suchalgorithmen, die auf webmasterseitig bereitgestellten Informationen wie dem Keyword-Meta-Tag oder Indexdateien in Suchmaschinen wie ALIWEB basierten. Meta-Tags bieten einen Leitfaden für den Inhalt jeder Seite. Die Verwendung von Metadaten zur Indexierung von Seiten erwies sich jedoch als wenig zuverlässig, da die Wahl der Keywords im Meta-Tag durch den Webmaster möglicherweise eine ungenaue Darstellung des tatsächlichen Inhalts der Website darstellen könnte. Ungenaue, unvollständige und inkonsistente Daten in Meta-Tags konnten und wollten dazu führen, dass Seiten für irrelevante Suchanfragen bewertet wurden. Web-Content-Provider manipulierten auch einige Attribute innerhalb der HTML-Quelle einer Seite, um ein gutes Ranking in Suchmaschinen zu erreichen. 1997 erkannten Suchmaschinengestalter, dass Webmaster sich bemühten, ein gutes Ranking in ihrer Suchmaschine zu erreichen, und dass einige Webmaster sogar ihr Ranking in Suchergebnissen manipulierten, indem sie Seiten mit übermäßigen oder irrelevanten Keywords füllten. Frühe Suchmaschinen wie Altavista und Infoseek haben ihre Algorithmen angepasst, um zu verhindern, dass Webmaster Rankings manipulieren.
Indem sie sich so sehr auf Faktoren wie die Keyword-Dichte verließen, die ausschließlich unter der Kontrolle eines Webmasters lagen, litten frühe Suchmaschinen unter Missbrauch und Ranking-Manipulation. Um ihren Nutzern bessere Ergebnisse zu liefern, mussten sich die Suchmaschinen anpassen, um sicherzustellen, dass ihre Ergebnisseiten die relevantesten Suchergebnisse zeigten, und nicht unabhängige Seiten, die von skrupellosen Webmastern mit zahlreichen Keywords gefüllt wurden. Da der Erfolg und die Popularität einer Suchmaschine von ihrer Fähigkeit bestimmt wird, die relevantesten Ergebnisse für eine bestimmte Suche zu liefern, könnten schlechte oder irrelevante Suchergebnisse dazu führen, dass Benutzer andere Suchquellen finden. Suchmaschinen reagierten mit der Entwicklung komplexerer Ranking-Algorithmen unter Berücksichtigung zusätzlicher Faktoren, die für Webmaster schwieriger zu manipulieren waren. Im Jahr 2005 wurde eine jährliche Konferenz, AIRWeb, Adversarial Information Retrieval on the Web, ins Leben gerufen, um Praktiker und Forscher zusammenzubringen, die sich mit Suchmaschinenoptimierung und verwandten Themen befassen.
Unternehmen, die zu aggressive Techniken einsetzen, können ihre Kunden-Websites von den Suchergebnissen ausschließen lassen. Im Jahr 2005 berichtete das Wall Street Journal über ein Unternehmen, Traffic Power, das angeblich risikoreiche Techniken einsetzte und diese Risiken nicht an seine Kunden weitergab. Das Wired Magazine berichtete, dass das gleiche Unternehmen Blogger und SEO Aaron Wall verklagt hat, weil sie über das Verbot geschrieben hatten. Matt Cutts von Google bestätigte später, dass Google Traffic Power und einige seiner Kunden tatsächlich verboten hat.
Einige Suchmaschinen haben auch die SEO-Branche erreicht und sind häufige Sponsoren und Gäste bei SEO-Konferenzen, Webchats und Seminaren. Große Suchmaschinen bieten Informationen und Richtlinien, um bei der Optimierung der Website zu helfen. Google hat ein Sitemaps-Programm, um Webmastern zu helfen, zu erfahren, ob Google Probleme bei der Indizierung ihrer Website hat, und stellt auch Daten über den Google-Verkehr auf der Website zur Verfügung. Bing Webmaster Tools bietet Webmastern eine Möglichkeit, eine Sitemap und Webfeeds einzureichen, ermöglicht es Benutzern, die "Crawl Rate" zu bestimmen und den Indexstatus der Webseiten zu verfolgen.
Angewandte Suchmaschinenoptimierung
Wie lässt sich das Ranking der Website verbessern?
Mithilfe von Offsite-und Onpage-Optimierung, Standortbestimmung, Keyword-Recherche und mithilfe einer durchdachten Content-Strategie.
Standortbestimmung
Zunächst sollte bestimmt werden, auf welchem Platz sich die Website befindet und welches Potential mit welchem Aufwand und welchen Kosten möglich ist. Mithilfe verschiedener Tools wie Ranking Spy oder Webmastercoffee kann man den PageRank herausfinden.
Offsite-Optimierung
Offsite-Optimierung ist auch bekannt als Offpage-Optimierung und umfasst alle Maßnahmen und Faktoren, welche abseits der eigenen Internetseite einen Einfluss auf das Ranking der Website in den allgemeinen Suchmaschinen nehmen. Faktoren sind etwa Bewertungen in der Suchmaschine Google und Backlinks hervorgerufen durch Geschäftspartner, kostenlose Online-Portale, Freunde, Social Media Profile etc. Neben der Offsite-Optimierung existiert für die Suchmaschinenoptimierung auch die Variante der Onsite- bzw. der Onpage Optimierung. Für einen Erfolg bei der professionellen Suchmaschinenoptimierung ist ein Ineinandergreifen der Off- und Onsite-Optimierung von Bedeutung.
Onpage Optimierung
Unter Onpage Optimierung versteht man alle Maßnahmen zur Suchmaschinenoptimierung, die direkt auf der Homepage stattfinden, also technische Parameter, wie etwa Sitemaps, Metadaten oder Navigationsstrukturen (und weitere). Auf der Website sollen durch zuvor bewältigte Keyword-Recherche die daraus resultierenden Stichwörter im Title-Element, in Überschriften, in Anchor-Elementen der Hyperlinks etc. verwendet werden. Dies setzt jedoch Informatik-Kenntnisse voraus und sollte demnach mithilfe eines Informatikers umgesetzt werden, insofern kein eigenen Kenntnisse vorhanden sind. Im Gegensatz zur „Offpage Optimierung“, bei der es um die Herausbildung einer Linkstruktur geht.
Reverse Engineering
Reverse Engineering bedeutet frei übersetzt "umgekehrter Maschinenbau". Hierbei wird ein Produkt in seine Einzelteile aufgespalten und deren Informationen und Sachzusammenhänge analysiert. So können Rückschlüsse auf Funktions- und Fertigungsprinzipien geschlossen werden. Dies kann dazu dienen, das eigene Produkt oder die von Wettbewerbern besser kennen zulernen und neue Möglichkeiten der Differenzierung zu erschließen. Reverse Engineering wird dazu verwendet Such- und Indizierungsalgorithmen großer Suchmaschinen zu entdecken und zu verstehen. Anhand dieser Informationen lässt sich die eigene Website in einem solchen Maße beeinflussen, dass sie bei Suchergebnissen (SERPs) höher gerankt wird und somit für den Suchenden sichtbarer ist.
Keyword-Recherche
Um die richtigen Keywords für die Person oder das Unternehmen zu finden, sind verschiedene Schritte nötig, um erfolgreich an diese zu gelangen. Darunter fällt zunächst die Suche auf der eigenen Website, welche Stichworte in den eigenen Texten vorkommen. Weitere Schritte sind dann durch beispielsweise Google AdWords Keyword Planner Synonyme oder assoziierte Begriffe zu finden und diese daraufhin in der Google-Suche zu untersuchen. Auch ist es ratsam, mehrere Beteiligte über die Stichworte schauen zu lassen und auch Wettbewerber-Webseiten nach geeigneten Keywords zu durchforsten.
Content-Strategie
Aus den erarbeiteten Keywords lässt sich jedoch mehr herausholen – Was am wichtigsten ist, ist die Bindung an den Leser bzw. Kunden. Die Website kann zwar durch technische Optimierung leicht auffindbar sein, diese muss den potentiellen Lesern jedoch auch einen Mehrwert bieten und einen Grund, lesenswert zu sein.
Die Content-Strategie kann zweierlei umfassen – einerseits der Inhalt auf der Website, aber auch die Aktivitäten auf den Social-Media-Plattformen erhöhen den PageRank. Für beides, sowohl Website, als auch Social-Media-Profile, müssen individuelle Inhalte, also Unique Content, erstellt werden. Es ist wichtig, auf Beiträge der Website hinzuverlinken, jedoch darf dies allein nicht die Profile füllen. Auch wichtig ist, dass jedes erstellte Profil eigene Texte bekommt, diese dürfen sich aber inhaltlich ähneln.
Dem Unique Content steht der sog. Duplicate Content gegenüber, wörtlich: Doppelter Inhalt und bezeichnet Texte und Inhalte, die identisch auf mehreren Seiten bzw. Unterseiten vorkommen. Weitere Beispiele für Duplicate Content können sein: eine identische URL, nur mit dem Unterschied von http://, https:// und www oder eine identische URL, die sich nur durch Groß- und Kleinschreibung unterscheidet. Am Leichtesten zu ermitteln ist der Duplicate Content, indem man die betroffene Textstelle bei Google ins Suchfeld kopiert, in Anführungszeichen setzt und die Suchmaschinen nach dem Text suchen lässt.
Bedeutet also – Die Website muss sowohl technisch auf Vordermann gebracht werden, als auch qualitativ hochwertige Einträge beinhalten; Die erstellten Social-Media-Profile betten sowohl diese Einträge ein und erhalten eigene Inhalte, die den Nutzer mehr einbeziehen und eine direkte Bindung aufbauen.
Suchmaschinenoptimierung mit Social Media
Mit den sozialen Webdiensten und Angeboten (Social Media) lassen sich sowohl die Sichtbarkeit in Suchmaschinen als auch der Bekanntheitsgrad eines Unternehmens oder einer Marke verbessern beziehungsweise erhöhen. Mit der Nutzung von sozialen Netzwerken können Firmen unter anderem sich und ihre Produkte nicht nur einem weltweiten Publikum präsentieren, sondern auch mit Kunden und Interessenten über Facebook, Twitter & Co. in direkten Kontakt treten. Darüber hinaus können sie auch von einer modernen Form der altbekannten Mundpropaganda – das „Liken“ und Bewerten – profitieren, wenn Kunden beispielsweise ihre Erfahrungen mit einem Unternehmen oder mit einem Produkt in ihrem sozialen Netzwerk mit ihren Freunden teilen.
Tools
Yoast SEO
Optimierung mit den Seitwert SEO-Tools - einmalig oder permanent!
Heatmap
Google Webmaster Tool
Ryte
Ranking-spy
Quellen
http://www.gruenderszene.de
http://www.onlinemarketing-praxis.de
https://t3n.de
Weblinks
Google Support Richtlinien für Webmaster
Google - Einführung in die Suchmaschinenoptimierung