Dienstag, 3. Dezember 2013

Onlinemarketing Tag 12

Da kommt man rein und sieht direkt eine Testaufgabe zur Begrüßung:
Wie würden Sie bei einer Keywordrecherche vorgehen? Welche Fragestellung würden Sie berücksichtigen? Nenn Sie, wenn möglich, behandelte Tools aus dem Unterricht ( Setzen Sie sich in die lage eines beliebigen Unternehmens. Tipp: Nische)

Ok, ach ich liebe Dienstag-Morgen-Aufgabe….
So, zur Keywordrecherche  im Hinblick auf Nischen.
Hinsichtlich einer Nische, die ein Unternehmen abdecken möchte, ist es wichtig, ein Keyword zu finden, welches eine hohe Suchanfrage, aber wenig Konkurrenz hat, denn dann ist gewährleistet, dass man eine hohe Conversion Rate, also die Anzahl derjenigen, die nicht nur klicken sondern auch eine Transaktion wie Kauf oder Abo tätigen.
Ich muß mir die Frage stellen, welche Ziele ich habe, wie groß ist mein Unternehmen, was biete ich überhaupt an und wieviel Budget habe ich. Was will ich, meine Website schnell nach vorne bringen, ein Produkt schnell verkaufen oder Branding betreiben, Onpageoptimierung oder Anzeigenkampagne.
Ich überlege als erstes selber, welche Wort zu meinem Produkt/Dienstleistungen passen würde, immer die Frage im Kopf, was sucht der Suchende. Meist werden in eine Suchmaschine nicht nur einzelne Begriffe eingegeben sondern explizit die Sorgen, Ängste, Probleme wie: Wie werde ich ganz schnell ganz schlank!
Hierzu kann ich eine Mindmap erstellen. Später  kann man noch Freunde, Bekannte, Kollegen, Mitarbeiter befragen. Außerdem kann man sich mithilfe des Keyword-Planner von Google Adwords noch Ideen zur Wortfindung holen, hier ist möglich, sowohl Worte als auch ganze Wortgruppen zu finden. Bei den Keywords ist es auch wichtig, Longtails zu finden, also Worte, die sich aus mehreren zusammensetzen. Hat man beispielsweise eine Herrenboutique in Wuppertal, dann würde man besser gefunden werden, wenn man nicht nur Herrenboutique  oder Wuppertal als Keyword hat sondern beides in Kombination. Die Keywordergebnisse kann man in einer Exceltabelle festhalten und diese dann mit dem Tool Traffic Estimator hinsichtlich Traffic, Klickrate und auch Kosten geprüft, was hinsichtlich des vorhandenen Budgets wichtig ist. Diese Ergebnisse werden wieder festgehalten.
Durch Kampagnentests bei Adwords kann ich nun feststellen,  ob die Worte hinsichtlich Conversionrate, Preis effektiv sind und durch stetige Optimierung erhalte ich ein keyword, was optimal ist.
Auch Google selber liefert schon mit der Autovervollständigung gute Anhaltspunkte, was die Menschen so suchen. Durch langsames Eingeben der Keywords werden Vorschlage von Google gemacht, was gemeint sein könnte. Es wird auch angezeigt, wie viele Suchergebnisse  es für die Suchworte gibt und anhand dessen kann man sich auch ausrechnen, ob ein Wort effektiv ist.
Zu guter Letzt kann man auch noch die Konkurrenz ein wenig durchleuchten. Hiefür gibt es diverse kostenlose, weilweise kostenlose oder kostenpflichtige Tools wie zb. Seosquake, woorank, marketsamurai, mit deren Hilfe man mal bei der Konkurrenz schauen kann was die für Keywords haben, wie die eingesetzt werden und wie deren Ranking überhaupt ist und ob man sie mit einer besseren Keywordwahl und Dichte überholen kann.


So, die Frage gilt als beantwortet und wir wenden uns wieder dem Tagesgeschäft zu.
Wenn ich denn dann eine eigene Internetpräsenz erstellen möchte, hätte ich gerne einen Domainnamen (möglichst mit unserem Keyword)

Hier kann ich checken, ob eine Domain frei ist
https://www.checkdomain.de/domains/suchen/
Und hier gibts Endungen für die Domain...
Meine Internetpräsenz möchte dann auch wo wohnen und zwar in einem Host (Jaaaaa, hört sich an wie Hostel)
Recht günstig gibt es host-space bei
•11
•strato
•hosteurope

Aber....jetzt geht es richtig zur Sache, den...jaaa, wir lernen ein neues Tool kennen und zwar
Google Analytics.
Nach Bestätigung der eigenen Seite, in unserem fall unser Blogspotblog,was durch Einkopieren des Metatags in die html Version des Blogs (unter Vorlage html) geschieht, ist unsere Seite bestätigt.

Klausur: Sitemap xml gehört zwingend zur Suchmaschinenoptimierung dazu, wie auch Robots.txt  und htaccess
Sitemap xml (rechts auf der Seite bei Analytics)
Die Sitemap.xml soll dem kleinen Crawler helfen, auf die Seite zu gehen. Es ist wie die Speisekarte einer Seite, also eine Info über das, was den Besucher, bei uns den Crawler erwartet. Dies wird z.B. auch von woorank geprüft.
Gibt es kenien Sitemap.xml, sollte man eine erstellen
Es gibt Tool dafür http://www.xml-sitemaps.com/
 
Dies muß man jeden Tag neu machen, wenn man was in der Seite/Blog ändert.

(Offtopic:Sitemaps, Inhaltsverzeichnisse auf Homepage, wenn sie größer sind, sind gut, da es gut für Linkjuice ist und nett für keywords ist.)

XML-Datei ist gut für Auslesegeschwindigkeit der Seite, Crawler ist schneller mit seinem Job fertig.
Die erstellte Sitemap.XML-Datei muß auf demselben Server liegen wie die Indexdatei, muß also mit im Rootverzeichnis liegen.



•Auch die robots.txt muss auch ins Rootsverzeichnis Steht im robots.txt ein * bei user-agent und dann noch ein Disallow, dann darf keine Suchmaschine vorbei kommen und es ist ein Garant dafür, daß man nie in der Suchmaschine gefunden zu werden, schade...
Hier noch nette Infos und Tipps:
http://de.wikipedia.org/wiki/Robots_Exclusion_Standard
http://www.blog-tips.de/seo-robots-txt-wordpress/


htaccess, der Pförtner der Webseite, der sagt, wo der Crawler hin soll. Also mit oder ohne www.
Wenn man eine Domain gebucht hat, erhält man die www-Adresse und die ohne www. Dies erfährt man aber nicht und produziert so double content, was nicht sein soll.
Dies ändert man mit der htaccess Datei, die besagt, dass mit und ohne www auf die gleiche Seite geht.
Das sollte man bei der Hosterauswahl beachten!!!!!!

Man kann sich die drei wichtigen Punkte so vorstellen:
Der kleine Crawler der Suchmaschine kommt zum Internetauftritt. Vor dem Eingang steht htaccess sagt, nö, geh ne Tür weiter weiter >> Das ist eine Umleitung! Sagt er hingegen, komm rein, mach's dir schön, nimm dir'n Bier,dann  kann der Crawler rein  und trifft drinnen auf denr robots.txt und der sagt, Crawler, geh bitte nur da rein, wo dransteht "für crawler" und dann trifft der Crawler auf die Sitemap.xml, die dem crawler genau sagt, was, wo, wie und wieso ist. Der crawler ist glücklich und geht fröhlich pfeiffend nach getaner Arbeit zurück zum großen Bruder und berichtet.

In Google Analytics werden auch die Crawling-Fehler angezeigt. Das sind die netten fehler, die wir eher als Enduser kennen wie Fehler 404, wenn eine URL nicht mehr da ist. Also irgendwann mal gecrawled wurde, dann aber von der Seite gelöscht wurde.
Hier eine kleine Auflistung der Fehler: http://de.wikipedia.org/wiki/HTTP-Statuscode
Serverfehler zu produzieren, ist schlecht, dader kleine Crawler das merkt und er meldet dies an die Suchmaschine. Z.B. sollte man nicht mehrere Conten tManagementsysteme  ausprobieren und in dasselbe Rootverzeichnis legen, denn das führt zu fiesen Fehlern.

Der Permalink befindet sich ganz oben im Browser, wo man die Adresse eingibt.
Der Permalink sollte möglichst nieeeee wieder angefasst werden. Ein Permalink hat die Linktiefe 0.
Startseite sollte immer auf Linktiefe o stehen, oft ist hier eine länderspezifische Weiterleitung, wenn man oben nur den Firmennamen eingibt.
Wenn man eine Domain gebucht hat, erhält man die www-Adresse und die ohne www. Dies erfährt man aber nicht und produziert so double content, was nicht sein soll.
Dies ändert man mit der htaccess Datei, die besagt, dass mit und ohne www auf die gleiche Seite geht. 

Hier kann man es nachlesen:
http://suchmaschinenoptimierung.michaelsattler.de/weiterleitung.html

Legen Sie im Hauptverzeichnis Ihrer Domain folgende .htaccess-Datei ab:
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^domain.de
RewriteRule (.*) http://www.domain.de/$1 [R=301,L]
Besagt, wenn man oben ohne www eingibt, wird man auf die mit www weitergeleitet und das mit einer Weiterleitung 301

Speichern unter ansi  mit Name >> .htaccess >>  alle Dateien >> diese Datei wird auch in das Rootverzeichnis gelegt.

Man kann bei Google Analytics die die Einstellungen für die bevorzugte Domain ändern.
Auf den eigenen Internetauftritt in Analytics gehen und dort mit dem Einstellungsrädchen die bevorzugte Website ändern.
 


Ups, hier noch zwei Marketingbegrifflichkeiten:


Inbountmarketing:
Richtig guter Inhalt und die Leute kommen von alleine. Wenn auf Facebook gelikt wird und sich rumsprich, das  guter Kontent da ist, dann fließen die backlinks
In den Webmastertool bei Suchanfragen sieht man suchanfragen und kann so die meist gesuchten sehen.
Outbountmarketing:
Marktschreierisches Verhalten
 

Keine Kommentare:

Kommentar veröffentlichen