SEO-Wochenrückblick KW 35: Erhöhung der Blog-Reichweite und Click-Baiting bei Facebook

SEO-Wochenrückblick KW 35: Erhöhung der Blog-Reichweite und Click-Baiting bei Facebook

Weblogs von Google zur offiziellen Newsquelle erhoben

Betreiber eines Weblogs haben es künftig schwerer, über die Google-Suche gefunden zu werden, berichtet seo-united.de. Google hat Weblogger jetzt als Webpublisher eingestuft. Als alternative Informationsquelle müssen Blogs nun unter Google-News extra ausgewählt werden. Über die News gelangt man zu den „Suchoptionen“, klickt dort auf „alle Meldungen“ und wählt hier wiederum „Blogs“ aus, um auch diese in die Suche einzubeziehen. Um auch künftig als Weblog noch gut zu ranken, sollte eine Anmeldung bei Google News in Betracht gezogen werden.

HTTPS kann das Ranking verbessern

Google möchte die Internetsicherheit verbessern. Ein Anreiz, verschlüsselte Verbindungen zu nutzen, könnte nun die Aussage von Google sein, dass die Nutzung von HTTPS ein Rankingkriterium sein kann. SEO-Experte Kevin Indig warnt jedoch im searchmetrics-Blog davor, vorschnell eine SSL-Verschlüsselung einzurichten, bevor nicht mindestens 80 Prozent des bestehenden Optimierungspotenzials ausgeschöpft sind. Google bestätigt, dass der Content immer wichtiger sein wird als die Verschlüsselung.

Wertvolle Tipps zur Verbesserung von Blog-Einträgen

Möglichkeiten, die Reichweite seines Blogs zu erhöhen, gibt Björn Tantau in seinem Blog. Er hat 7 Tipps zusammengestellt, die jeden Blog inhaltlich und optisch aufwerten können. Dies beginnt bei Hinweisen zu einer packenden Überschrift, die das Interesse des Lesers weckt und endet damit, wie ein Post einen Mehrwert schaffen kann. Hier nennt er beispielsweise einen Call-to-action als Erfolgsrezept, wenn dieser zum Thema passt.

Qualitätsverbesserung bei Facebook: Click-Baiting wird abgemahnt

Ein neuer News-Feed-Algorithmus bei Facebook erkennt Click-Baiting-Beiträge und mahnt diese ab. Diese Beiträge nutzen reißerische Überschriften, um möglichst viele Klicks zu sammeln. Bekannteste Beispiele sind Seiten wie heftig.co oder buzzfeed.com. Facebook will solche Seiten künftig stärker bekämpfen und geht so einen wichtigen Schritt Richtung Qualitätsverbesserung, so Thomas Hutter in seinem Social-Media-Blog.

Semalt.com und kambasoft.com – SPAM im großen Stil

Semalt-Crawler verfälschen Seiten-Statistiken, indem sie teils täglich auf Inhalte zugreifen. Semalt gibt an, mit einem SEO-Analysetool Webseiten zu bewerten und miteinander zu vergleichen. Seitenbetreiber glauben nicht an den positiven Nutzen von semalt und klassifizieren die Zugriffe des Bots als Spam. Marc Michael, Inhaber der Agentur creative contents

die Wahrnehmungsarchitekten beschreibt Möglichkeiten, um seine Seite vor semalt.com und ähnlichen Bots zu schützen. Dies kann beispielsweise über eine Domain-Sperre mit htaccess Dateien erfolgen, wenn die Dateien auf einem Appache-Server hinterlegt werden. Auch Google Analytics bietet die Möglichkeit, solche Crawler zu filtern.

Teilen