Unsere Blogwelt filtert Informationen
Informationsüberflutung und Zeitmangel machen eine Filterung von Informationen notwendig. Diesen Gedanken legten wir der Gestaltung der Blog Sektion zugrunde.
Informationsüberflutung und Zeitmangel machen eine Filterung von Informationen notwendig. Diesen Gedanken legten wir der Gestaltung der Blog Sektion zugrunde.
In unserem Blog of Blog veröffentlichen wir die besten Antworten zu veschiedenen Marketing Themen.
Nichts macht erfolgreicher als Erfolg.
Es macht deshalb nichts, klein anzufangen.
Suchmaschinen erkennen gute Informationen. Was wir von Suchmaschinen lernen können.
Die „Google Animals“ sind nach Tieren benannte Updates des Google Sortieralgorithmus, welcher das Ranking von Webseiten bestimmt. Bekannt sind insbesondere die Panda, Pinguin und Hummingbird Updates, wegen welcher sich Marketing Experten seit Jahren den Kopf zerbrechen.
Ziel der Veränderungen des Algorithmus seitens Google ist es, Inhaltsklau und Spam zu bestrafen. In der Vergangenheit kam es nach der Implementierung der Updates oft dazu,dass Seiten die an einem Tag auf Seite 1 der Google gereiht waren, „abstürzten“ also sich in ihrer Positionierung deutlich verschlechterten.
Webseiten, die beispielsweise Inhalte von anderen Webseiten abkupfern und diese in die eigene Homepage einbauen, sind besonders gefährdet. Ebenso abgestraft werden Seiten, welche Links (sogenannte Backlinks) einkaufen oder die eigene Seite mit zu vielen Keywords (Suchbegriffe) vollpflastern.
Die Vermeidung von doppelten Inhalten (Duplicate Content) stellt ebenso eine Herausforderung dar. So sollen dieselben Texte oder Textpassagen auf der eigenen Homepage idealerweise nicht oft oder möglichst wenig vorkommen. Bei Betreibern von Webshops ist dies mitunter schwierig und nicht machbar, weil Artikel- bzw. Kategorie-Beschreibungen einheitlich sein sollen. Google hat für diese Problematik den sogenannten „Canonical Tag“ geschaffen. Dabei handelt es sich um eine Progammierzeile, die Google anzeigt, dass die doppelten inhaltliche Beschreibungen bewusst gewählt wurden. Mit dem Einbau des „Canonical Tags“ wird Abstrafung durch Google so vermieden.
Im Mai meldeten einige Internet Marketing Portal, darunter die U.S. amerikanische Webseite Searchenginejournal wichtige Veränderungen hinsichtlich des Sortier-Algorithmus bei Google.
Um die Positionierung von Webseiten nach bestimmten Suchworten zu bestimmen, verwenden Google und andere Suchmaschinen diesen Algorithmus. Ziel der Suchmaschinen ist es, den relevantesten und inhaltlich besten Webseiten das beste „Ranking“ zukommen zu lassen. Im Google Algorithmus sind rund 200 Faktoren enthalten, welche die Positionierung bestimmen.
Die im Mai durchgeführten Veränderungen umfassen die Beschreibungen von Webseiten, genauer gesagt die Titelbeschreibungen sowie die „Meta-Beschreibungen“ (Kurzbeschreibungen). Die meisten professionell erstellten Webseiten sind mit solchen Beschreibungen versehen. Neu ist, dass die optimale Länge der Beschreibungen ausgedehnt wurde. Titel können nun bis zu 70 Zeichen lang sein, Kurzbeschreibungen können bis zu 240 Zeichen haben.
Dies ist dahingehend zu interpretieren, dass der inhaltlichen Gestaltung und Beschreibung größere Bedeutung zukommt als bisher.
Die Popularität der sozialen Medien hat sich auch im Jahr 2016 gesteigert. Einige Plattformen, wie zum Beispiel „Whatsapp“, konnten dabei besonders hinzugewinnen.
Nachstehende statistische Auswertung der monatlichen Benutzerdaten zeigt auf, dass Linkedin zu den größten Gewinnern zählt - das berufsbezogene Netzwerk hat die 400 Millionen-Benutzer-Marke deutlich überschritten und registrierte seit dem Jahr 2012 fast 300 Millionen neue Benutzer.
Mitte Januar 2016 rollte Google das nächste „Core Update“, also eine wesentliche Veränderung
des Reihungsalgorithmus, raus. Die nunmehr erkennbaren Erweiterungen des Algorithmus weisen (nicht überraschend)
darauf hin, dass Google weiter die Spreu vom Weizen trennt und Qualitätsfaktoren betreffend die inhaltliche Gestaltung
stärker gewichtet. Daraus ergeben sich, je nach Größe einer Homepage, für die Homepage Betreiber einige umsetzungsbedürftige
Umstände. Als Tipp für Homepage Betreiber empfehlen wir alle kopierten oder unter Plagiatseinfluss gestalteten Inhalte mit
inhaltlichen Unikaten zu ersetzen. Übrigens: An die suchmaschinenfreundliche, das Core Update berücksichtigende, Optimierung
von Webseiten ist je nach Größe der Webseite unterschiedlich heranzugehen.
Wer die TV Serie Dallas aus den 80er Jahren kennt, erinnert sich sicherlich an die Figur des J.R. Ewing, des
vom Schauspieler Larry Hagman so glänzend dargestellten Fieslings. Nun, einige Entwicklungen in der Welt des Internet Marketing
erinnern so ein bisschen an die Machenschaften von J.R., weil diese am besten einfach als fies bezeichnet werden können.
So haben sich einige Leute gedacht, man könnte sich oder seinen Klienten einen Vorteil verschaffen, indem man Negativ-SEO betreibt,
also das Ranking von bestimmten Webseiten zu schädigen. Die Frage ob das möglich ist, ist viel diskutiert, vor allem in englischsprachigen Foren.
Also: Funktioniert Negativ-SEO? Vorerst wenden wir uns der Frage zu, wie man erkennt, ob man Ziel einer solchen Kampagne geworden ist. Eine Herabstufung
im Ranking ist nicht aussagekräftig, da eine solche natürlich andere Ursachen haben kann und voraussetzen würde, dass Negativ-SEO funktioniert.
Eine wichtiger Aspekt in der Untersuchung ist, die Anzahl und Veränderung der eigenen Backlink Struktur zu prüfen und die Veränderungen zu beobachten.
Fallen gute Links plötzlich weg, wäre dies ein Anzeichen einer Hacker Attacke, was allerdings auf eine Schwäche im eigenen Computer/Netzwerk bedeuten würde.
Weiters sollte man die generelle Anzahl der Backlinks im Auge behalten, steigt diese kurzfristig gewaltig an, so sollte man prüfen warum – denn im Idealfall
sollten die Backlinks ja aufgrund der Popularität der Seite ansteigen. Zuviele Links innerhalb kurzer Zeit könnte auf eine Negativ Spam Attacke hinweisen.
Die gute Nachricht ist, dass gut betreute und etablierte Seiten von der Gefahr weitgehend immun sind, vor allem dann wenn man sonst den Google Regeln brav folgt.
Umstrukturierungen, Einsparungen „Shareholder Value“ und andere, ähnliche
Trends haben zu massiven Einsparungen in Medienkonzernen und bei Printmedien geführt.
Qualitativ hochwertiger Journalismus hat darunter in den letzten Jahre oder sogar Jahrzehnten gelitten.
Die Entwicklung des Internet hat die Margen für die Branche weiter fallen lassen.
Doch die neuen Veränderungen in den Algorithmen der Suchmaschinen könnten einen grundsätzlichen
Wandel in zurück zu Qualitätsjournalismus bringen. Seit 2011 setzen die Suchmaschinen verstärkt
auf die Popularität von Inhalten. Dies ist zwar nicht gleichbeutend mit Qualität, jedoch sind gute Inhalte
gefragt und werden in vieler Hinsicht belohnt. Kommt es zu einer Renaissance des Qualitäts-Journalismus?……
(mehr zu diesem Thema in den nächsten Wochen und Monaten).
Google hat nun einige Neuerungen in der Suchmethodik bekannt gegeben, die Insider nicht besonders überrascht haben. Die Struktur einer Webseite wird nun auch auf die
Freundlichkeit bei Mobil-Geräten getestet. Das heißt, dass man die Struktur der Webseite anpassen muss, um nicht wichtige Punkte im Ranking einzubüßen. Dazu kommt noch, dass die Qualität der Inhalte neu bemessen und wichtger wird.
Kopieren und abschreiben geht also gar nicht mehr, Plagiate sind endgültig out und werden von den Suchmaschinen auch abgestraft.
Wenn es um Mobilgeräte geht, dann ist Apple die ganz große Melk-Kuh von Google. Laut einer Studie der amerikanischen Investment Bank
Goldman Sachs konnte Google im Jahr 2014 über 11 Milliarden US-Dollar Werbeeinnahmen von Mobilgeräten verbuchen, 75 % dieser Einnahmen
kamen über Apple Geräte.
Google Core Update 2016
Heißes Thema – Muss man vor Negativ-SEO Angst haben?
Google und die Renaissance des Journalismus
Neues aus "Google Land"
Apple ist die Melk-Kuh von Google
Copyright © 2010-2020 Agentur Berger. Alle Rechte vorbehalten.