Strukturierte Daten sind für Google vor allem dann hilfreich, wenn die Inhalte einer Webseite noch nicht klar zugeordnet werden konnten. In diesem Fall kann der Einsatz von strukturierten Daten zu einer zielgenaueren Ausspielung zu den passenden Suchanfragen führen.
Google hat die Darstellung von Lizeninformationen in der Bildersuche angekündigt. Mithillfe passender Metadaten können Websitebetreiber dafür sorgen, dass Google die entsprechenden Angaben anzeigt.
Googles Algorithmen bewerten Websites nicht nach einem bestimmten EAT-Kriterium. EAT dient Googles Qualitätstestern zur Bewertung von Suchergebnissen. Dennoch kann EAT zumindest als eine Annäherung an das verstanden werden, was die Google-Algorithmen bei ihrer Einstufung von Inhalten zugrunde legen.
Google hat offiziell bestätigt, dass sich die Verwendung von Keywords in My Business-Einträgen positiv auf die Rankings auswirken kann. Zuvor hatte es einige Verwirrung um diese Frage gegeben.
Die neuen Bing Webmaster Tools verfügen über einen überarbeiteten Leistungsbericht, einen Backlink-Report mit integriertem Disavow Tool sowie eine neu gestaltete Sitemaps-Darstellung.
Aktuell gibt es offenbar Versuche von Unbekannten, Websites über Googles SafeSearch-Filter zu schaden. Dabei werden komplette Sitemaps eingereicht.
Nur wenn das 'lastmod'-Attribut für die einzelnen URLs in einer XML-Sitemap in einer vernünftigen Weise genutzt wird, kann Google etwas damit anfangen und das Crawlen entsprechend priorisieren.
Das Verwenden einer eigenen robots.txt für Subdomains hat keine störenden Auswirkungen auf die Bewertung der robots.txt der Hauptdomain durch Google, wenn sie richtig aufgesetzt ist.
























