Screaming Frog SEO Spider ist ein Website-SEO-Audit-Tool. Wir haben eine umfassende Liste von Best Practices zusammengestellt, wie SEOs, PPCs und Digital Marketer Screaming Frog nutzen können, um ihren Workflow zu optimieren.
Dies ist der ultimative Leitfaden für Einsteiger in die Welt des schreienden Frosches, der mit den neuesten Updates vorbereitet wurde.
Die neue 20. Version von Screaming Frog SEO Spider, mit dem internen Codenamen "Cracker", wurde am 7. Mai 2024 veröffentlicht.
Was ist Screaming Frog?
Screaming Frog ist ein Crawler-Tool, das die URLs von Websites scannt, um die Daten zu sammeln, die Sie benötigen, um die SEO-Leistung Ihrer Website zu verbessern. Egal, ob es sich um ein internes Link-Audit oder die Erstellung einer XML-Sitemap handelt, mit diesem Tool können Sie es schneller erledigen. Es überwacht Websites auch auf häufige SEO-Fehler wie schlechte Inhalte, doppelte Seiten, fehlende Metadaten und so weiter. Diese Software hat eine benutzerfreundliche grafische Oberfläche und kann bei Bedarf über eine Befehlszeilenschnittstelle aufgerufen werden.
Die Lite-Version von Screaming Frog ist kostenlos erhältlich und kann bis zu 500 URLs crawlen. Wenn Sie eine Lizenz kaufen, wird diese Begrenzung aufgehoben und Sie erhalten eine Reihe von erweiterten Funktionen wie JavaScript-Rendering, benutzerdefinierte Robots, Rechtschreib- und Grammatikprüfungen, benutzerdefinierte Extraktion, Google Analytics & Search Console Integration und viele andere.
Als wir die Anleitung geschrieben haben, haben wir analysiert, was die meisten Benutzer in diesem Programm suchen:
- Screaming Frog wie man kostenloser Download
- Was macht Screaming Frog?
- Was ist Screaming Frog SEO Spider und wofür wird er verwendet?
- Wie führt man ein vollständiges Site Scraping in Screaming Frog SEO durch?
- Wie kann man Screaming Frog nutzen, um On-Page-SEO zu verbessern?
- Wie führt man ein technisches Audit der Website mit Screaming Frog SEO durch?
- Wie benutzt man das Screaming Frog SEO Spider Tool, um interne und Backlinks zu überprüfen?
- Wie sieht es mit den Preisen von Screaming Frog aus und ist die Nutzung kostenlos?
Diese und viele andere Fragen werden in unserem Screaming Frog-Tutorial beantwortet. Wir bieten eine Schritt-für-Schritt-Anleitung mit Erklärungen und visuellen Darstellungen, um Ihnen zu zeigen, wie Sie Screaming Frog für SEO effektiv nutzen können. 💪
Wie man ein vollständiges Website-Scraping in Screaming Frog SEO durchführt
So crawlen Sie die gesamte Website
Bevor Sie den kompletten Web Scraping Prozess in Screaming Frog SEO starten, bestimmen Sie:
- welche Informationen Sie erhalten möchten,
- wie groß die Website ist,
- Welchen Teil der Website müssen Sie auf Vollständigkeit prüfen?
Bei großen Websites ist es besser, den analysierten Bereich auf einen Teil der URLs zu beschränken, um eine repräsentative Stichprobe der Daten zu erhalten. Dadurch bleiben die Dateigrößen und die Exportdaten überschaubarer. Wir werden später auf diese Details zurückkommen.
Um die Website vollständig mit allen Subdomains zu scrapen, müssen Sie die Einstellungen vor dem Start etwas ändern. Das liegt daran, dass Screaming Frog standardmäßig nur die Subdomains überprüft, die Sie eingegeben haben. Andere, zusätzliche Subdomains werden vom Algorithmus als externe Links behandelt. Um zusätzliche Subdomains zu überprüfen, müssen Sie die Einstellungen im Screaming Frog Konfigurationsmenü ändern. Indem Sie Spider > Crawl all Subdomains wählen, stellen Sie sicher, dass der Algorithmus alle Links zu Subdomains Ihrer Seite crawlt.
Schritt 1 - Konfigurieren des Scrapings von Domänen und Subdomänen
Schritt 2 - Konfiguration des Crawls der gesamten Website
Wenn Sie das Crawling von einem bestimmten Unterordner aus gestartet haben und Screaming Frog trotzdem die gesamte Site crawlen soll, aktivieren Sie "Crawl Outside of Start Folder".
Profi-Tipp - Crawling von Bildern, CSS und Javascript ausschließen
Um das Crawling von Bildern, CSS- und Javascript-Dateien in Screaming Frog zu deaktivieren, entfernen Sie die Markierung bei den Elementen, die Sie nicht benötigen. Dies spart Zeit und Speicherplatz (reduziert die Größe der gescannten Dateien).
Wie man Screaming Frog so einrichtet, dass es einen einzelnen Ordner crawlt
Um den Screaming Frog Seo Spider auf einen einzelnen Ordner zu beschränken, geben Sie einfach die URL ein und klicken auf Start, ohne die Standardeinstellungen zu ändern. Wenn Sie die ursprünglichen Einstellungen überschrieben haben, setzen Sie die Standardkonfigurationen unter Datei > Konfiguration > Standardkonfiguration löschen zurück. Siehe Anweisungen unten.
Wenn Sie das Crawling in einem bestimmten Ordner beginnen, aber in der verbleibenden Subdomain fortsetzen möchten, wählen Sie "Crawling außerhalb des Startordners" aus dem Konfigurationsmenü, bevor Sie die Start-URL eingeben. Dieser Screenshot soll Ihnen helfen, die Einstellungen zu verstehen.
Wie man Subdomains und Unterverzeichnisse überprüft: Screaming Frog anpassen
Um die Screaming Frog-Prüfung auf eine bestimmte Gruppe von Subdomains oder Unterverzeichnissen einzuschränken, können Sie RegEx verwenden, um diese Regeln in den Einstellungen Include oder Exclude im Konfigurationsmenü festzulegen.
Ausnahme
In diesem Beispiel haben wir jede Seite von seerinteractive.com gecrawlt, mit Ausnahme der "About"-Seite in jeder Subdomain.
Schritt 1 - Schreiben Sie die Ausschlussregeln
Öffnen Sie Konfiguration > Ausschließen; verwenden Sie einen Platzhalterausdruck, um Parameter oder URLs auszuschließen.
Schritt 2 - Testen, wie der Ausschluss funktioniert
Testen Sie den Ausdruck, um sicherzustellen, dass es Seiten gibt, die ausgeschlossen werden sollen, bevor Sie den Test starten.
Eingliederung
Im folgenden Beispiel wollten wir einen Befehlsunterordner auf seerinteractive.com crawlen. Verwenden Sie die Registerkarte "Test", um mehrere URLs zu testen und sicherzustellen, dass die RegEx für die Unterregel richtig eingestellt ist.
Dies ist eine großartige Methode, um große Websites zu testen. Darüber hinaus empfiehlt Screaming Frog diese Methode, wenn Sie eine große Domain aufteilen und validieren müssen.
Wie man alle Seiten einer Website erfasst
Standardmäßig überprüft Screaming Frog alle Bilder, JavaScript-, CSS- und Flash-Dateien.
Um alle Seiten der Website zu sammeln (nur HTML) in Screaming Frog deaktivieren Sie "Check Images", "Check CSS", "Check JavaScript" und "Check SWF" im Konfigurationsmenü.
Wenn Sie die oben genannten Optionen deaktivieren, wird Screaming Frog Seo Spider alle Seiten auf der Website mit internen Links zu ihnen sammeln.
Sobald der Crawl abgeschlossen ist, wählen Sie die Registerkarte "Intern" und filtern Sie die Ergebnisse nach "HTML". Klicken Sie auf "Exportieren" und Sie erhalten eine vollständige Liste der Seiten im CSV-Format. Siehe Anweisungen zur Verwendung dieser Funktion.
Profi-Tipp - Speichern Sie die Screaming Frog-Einstellungen, die Sie für jede Prüfung verwenden
Auflistung aller Seiten in einem separaten Unterverzeichnis
Zusätzlich zum Zurücksetzen von "CSS prüfen", "CSS prüfen", "JavaScript prüfen" und "SWF prüfen" können Sie auch "Links außerhalb des Ordners prüfen" in den Einstellungen zurücksetzen. Wenn Sie diese Einstellungen deaktivieren und crawlen, erhalten Sie zusätzlich eine Liste mit allen Seiten im Startordner.
Wie man alle Subdomains auf einer Website mit Screaming Frog findet und externe Links überprüft
Es gibt mehrere Möglichkeiten, alle Subdomains einer Website zu finden.
Methode 1: Verwenden Sie Screaming Frog, um alle Subdomains auf der angegebenen Website zu erhalten.
Gehen Sie zu Konfiguration > Spider und stellen Sie sicher, dass die Option "Alle Subdomains crawlen" aktiviert ist. So können Sie während des Crawls alle verbundenen Subdomains überprüfen. Beachten Sie, dass nicht verlinkte Subdomains nicht gefunden werden.
Methode 2: Verwenden Sie Google, um alle indizierten Subdomains zu finden.
Mit der Chrome-Erweiterung Scraper und erweiterten Suchoperatoren können Sie alle indizierten Subdomains für eine bestimmte Domain finden.
Schritt 1 - Verwendung der Operatoren site und inurl
Verwenden Sie zunächst den Operator site search: in Google, um Ihre Ergebnisse auf eine bestimmte Domain zu beschränken. Verwenden Sie dann den Suchoperator -inurl, um Ihre Suchergebnisse einzugrenzen, indem Sie die Hauptdomain entfernen. Daraufhin erhalten Sie eine Liste der von Google indizierten Subdomains, die nicht die Hauptdomain enthalten.
Schritt 2 - Verwenden Sie die Scraper-Erweiterung
Verwenden Sie die Scraper-Erweiterung, um die Ergebnisse in ein Google-Tabellenblatt zu extrahieren. Klicken Sie dazu mit der rechten Maustaste auf den Link in der SERP, wählen Sie "Scrape similar" und exportieren Sie in ein Google Doc.
Schritt 3 - Entfernen zusätzlicher Daten
Verwenden Sie in Google Docs die folgende Funktion, um URLs in einer Subdomain zu kürzen:
=LINKS(A2,SUCHE("/",A2,9))
Diese Anleitung hilft Ihnen, Unterverzeichnisse, Seiten oder Dateinamen am Ende Ihrer Website zu entfernen. Die Funktion weist die Tabellen oder Excel an, das zurückzugeben, was links vom Schrägstrich steht. Die führende Zahl 9 ist von Bedeutung, da wir nach dem 9. Zeichen nach einem Schrägstrich suchen. Dies wird bei dem Protokoll https:// mit einer Länge von 8 Zeichen berücksichtigt.
Entfernen Sie Duplikate aus der Liste und laden Sie sie in Screaming Frog im Listenmodus.
Sie können eine Liste von Domänen manuell eingeben, eine Funktion verwenden oder eine CSV-Datei hochladen.
Methode 3: Subdomains in Screaming Frog finden
Geben Sie die Stamm-URL der Domäne in die Tools ein, die Ihnen helfen, Websites mit derselben IP-Adresse zu finden. Alternativ können Sie auch spezielle Suchmaschinen wie FindSubdomains verwenden. Erstellen Sie ein kostenloses Konto, um sich einzuloggen und die Liste der Subdomains zu exportieren. Laden Sie dann die Liste im Listenmodus zu Screaming Frog hoch.
Nach Abschluss des Crawls können Sie die Statuscodes sowie alle Links zu Subdomain-Homepages, Ankertexte und doppelte Seitentitel usw. sehen.
Wie man einen Online-Shop und andere große Websites mit Screaming Frog Spider analysiert
Was Sie für das Scraping großer Websites mit Screaming Frog Spider benötigen:
- können Sie die Speicherzuweisung erhöhen.
- die Prüfung in Unterverzeichnisse aufteilen oder nur bestimmte Teile der Website mit den Einstellungen Einschließen/Ausschließen prüfen.
- können Sie wählen, Bilder, JavaScript, CSS und Flash-Dateien nicht auszuwählen. Indem Sie diese Optionen in den Screaming Frog Seo Spider-Einstellungen abwählen, sparen Sie Speicher für das Crawlen von nur HTML.
Profi-Tipp: Unterbrechen Sie das Kriechen, wenn es nötig ist.
Bis vor kurzem konnte der Screaming Frog SEO Spider das Crawlen einer großen Website unterbrechen oder abbrechen. Jetzt, mit der Standard-Datenbank-Speicherung, können Sie den Crawl dort fortsetzen, wo Sie aufgehört haben. Darüber hinaus haben Sie Zugriff auf eine Warteschlange von URLs, falls Sie zusätzliche Parameter ausschließen oder hinzufügen möchten, um eine große Website zu testen.
Wie überprüft man eine Website, die auf einem alten Server gespeichert ist?
In manchen Fällen sind alte Server nicht in der Lage, standardmäßig eine bestimmte Anzahl von Anfragen pro Sekunde zu verarbeiten. Wir empfehlen übrigens, dieses Limit zu setzen, um die Server-Etikette zu respektieren. Am besten teilen Sie dem Kunden mit, wenn Sie vorhaben, die Website auf unbekannte Benutzer-Agenten zu prüfen. In diesem Fall kann er Ihre IP-Adresse auf die Whitelist setzen, bevor Sie mit dem Crawling der Website beginnen. Andernfalls werden Sie zu viele Anfragen an den Server senden und die Website versehentlich zum Absturz bringen.
Um die Crawl-Geschwindigkeit zu ändern, öffnen Sie Konfiguration > Geschwindigkeit und wählen Sie im Pop-up-Fenster die maximale Anzahl von Threads, die gleichzeitig laufen sollen. In diesem Menü können Sie auch die maximale Anzahl der URL-Anfragen pro Sekunde auswählen.
Pro-Tipp - Erhöhen Sie die Antwortzeit in den Einstellungen
Wenn das Crawl-Ergebnis viele Serverfehler anzeigt, gehen Sie in den Einstellungen zu Konfiguration > Spider > Erweitert und erhöhen Sie "Antwort-Timeout" und "5xx Antwortwiederholungen", um bessere Ergebnisse zu erzielen.
So analysieren Sie eine Website, die Cookies benötigt
Screaming Frog Seo Spider erlaubt Ihnen, Websites zu crawlen, die Cookies benötigen. Obwohl Suchbots keine Cookies akzeptieren, gehen Sie einfach zu Konfiguration > Spider > Erweitert und wählen Sie "Cookies zulassen", wenn Sie eine Website crawlen und sie zulassen müssen.
Kann Screaming Frog Seiten prüfen, die eine Authentifizierung erfordern?
Ja, Sie können die Authentifizierung in den Screaming Frog Einstellungen verwalten. Wenn der Screaming Frog-Algorithmus auf eine passwortgeschützte Seite stößt, erscheint ein Pop-up-Fenster, in das Sie den erforderlichen Benutzernamen und das Passwort eingeben können.
Formularbasierte Authentifizierung ist eine leistungsstarke Funktion, die möglicherweise JavaScript erfordert, um effektiv zu funktionieren.
Beachten Sie, dass die formularbasierte Authentifizierung nur selten und nur von fortgeschrittenen Benutzern verwendet werden sollte. Der Algorithmus ist so programmiert, dass er auf jeden Link auf der Seite klickt. Dies könnte sich also möglicherweise auf Links auswirken, die Beiträge erstellen oder sogar Daten löschen.
Um die Authentifizierung zu verwalten, gehen Sie zu Konfiguration > Authentifizierung.
Um Authentifizierungsanfragen zu deaktivieren, gehen Sie zu Konfiguration > Authentifizierung und deaktivieren Sie die Option "Standardbasierte Authentifizierung".
Suche nach internen und externen Links in Screaming Frog
Wie man Informationen über alle internen und externen Links auf der Website erhält
Wenn Sie keine Informationen über JavaScript-, CSS- und Flash-Dateien benötigen, deaktivieren Sie diese Optionen im Einstellungsmenü, um Verarbeitungszeit und Speicherplatz zu sparen.
Sobald der Algorithmus mit dem Crawlen fertig ist, können Sie die CSV-Datei mit der Option "Alle Links" im Menü "Bulk Export" exportieren. Sie erfahren, wo sich alle Links mit den entsprechenden Ankertexten, Direktiven usw. befinden.
Alle Links können einen großen Bericht darstellen. Berücksichtigen Sie dies beim Exportieren. Bei großen Websites kann der Export einige Zeit dauern.
Um schnell die Anzahl der Links auf jeder Seite zu zählen, öffnen Sie die Registerkarte "Intern" und filtern Sie nach "Outlinks". Alles, was über 100 liegt, muss möglicherweise überarbeitet werden.
Wie man defekte Links in Screaming Frog findet (Seite oder Website)
Screaming Frog Seo Spider kann auch als Prüfer für defekte Links dienen. Sobald der Algorithmus die Überprüfung beendet hat, filtern Sie die Ergebnisse im "Internal" Tab nach "Status Code". Alle 404, 301 und andere Status-Seiten werden angezeigt.
Wenn Sie auf eine einzelne URL als Ergebnis der Prüfung klicken, sehen Sie, wie sich die Informationen am unteren Rand des Programmfensters ändern. Wenn Sie auf die Registerkarte "In Links" am unteren Rand des Fensters klicken, finden Sie eine Liste der Seiten, die mit den ausgewählten URLs verlinkt sind, zusammen mit dem Ankertext und den Direktiven, die für diese Links verwendet werden. Sie können diese Funktion nutzen, um Seiten zu überwachen, deren interne Links aktualisiert werden müssen.
Um eine vollständige Liste der Seiten mit defekten oder umgeleiteten Links zu exportieren, gehen Sie zu Massenexport > Antwortcodes und wählen Sie "Umleitung (3xx) in Links", "Clientfehler (4xx) in Links" oder "Serverfehler (5xx) in Links". Auf diese Weise erhalten Sie die exportierten Daten in einer CSV-Datei.
Um eine vollständige Liste der fehlerhaften Seiten zu exportieren, öffnen Sie das Menü "Bulk-Export". Blättern Sie nach unten zu den Antwortcodes und sehen Sie sich die folgenden Berichte an:
- keine Antwort in Links;
- Weiterleitung (3xx) von Links;
- Umleitung (JavaScript) in Links;
- Weiterleitung (Meta-Refresh) von Links;
- Client-Fehler (4xx) in Links;
- Server-Fehler (5xx) in Links.
Screaming Frog Seo Spider findet alle defekten Links auf der Website. Ein Blick auf diese Berichte sollte Ihnen eine Vorstellung davon geben, welche internen Links aktualisiert werden müssen. Dadurch wird sichergestellt, dass sie auf die kanonische Version der URL zeigen und effizient verteilt werden.
Wie man Screaming Frog SEO Spider benutzt, um ausgehende Links zu überprüfen
Screaming Frog SEO Spider ermöglicht es, externe Links von der zu überprüfenden Seite zu finden.
Vergewissern Sie sich, dass die Option "Externe Links prüfen" in Konfiguration > Spider aktiviert ist.
Nachdem der Algorithmus die Prüfung abgeschlossen hat, gehen Sie im oberen Fenster auf die Registerkarte "Extern". Filtern Sie dann die Daten nach "Statuscode" und Sie werden URLs mit allen Codes außer 200 sehen. Wenn Sie auf eine bestimmte URL im Suchergebnis und dann auf die Registerkarte "In Links" am unteren Rand des Fensters klicken, finden Sie eine Liste von Seiten, die auf die ausgewählte URL verweisen. Sie können diese Funktion nutzen, um Seiten zu identifizieren, die ausgehende Links aktualisieren müssen.
Um eine vollständige Liste der ausgehenden Links zu exportieren, gehen Sie zu Bulk-Export > Externe Links.
Eine vollständige Liste aller Standorte und Ankertexte für ausgehende Links finden Sie unter Bulk-Export > Alle ausgehenden Links. Dieser Bericht enthält auch ausgehende Links zu Ihrer Subdomain. Wenn Sie Ihre Domain ausschließen möchten, lesen Sie den Bericht "Externe Links" weiter oben.
Wie man umgeleitete Links findet
Nachdem der Algorithmus die Überprüfung beendet hat, wählen Sie den Reiter "Response Codes" in der Hauptschnittstelle und sortieren Sie nach Status Code. Da Screaming Frog reguläre Ausdrücke für die Suche verwendet, überprüfen Sie die folgenden Filterkriterien: 301|302|307. Dies sollte Ihnen eine ziemlich lange Liste aller Links liefern, die mit einer bestimmten Art von Weiterleitung zurückkamen.
Es wird Sie auch darüber informieren, ob der Inhalt permanent verschoben, gefunden oder umgeleitet wurde, oder ob er gemäß den HSTS-Einstellungen vorübergehend umgeleitet wurde (höchstwahrscheinlich verursacht durch die 307er Umleitung in Screaming Frog). Sortieren Sie nach "Status Code" und Sie können die Ergebnisse nach Typ aufteilen. Klicken Sie auf den Reiter "In Links" am unteren Rand des Fensters, um alle Seiten zu sehen, die umgeleitete Links haben.
Wenn Sie direkt von dieser Registerkarte aus exportieren, sehen Sie nur die Daten, die oben im Fenster angezeigt werden (ursprüngliche URL, Code-Status und wohin die Umleitung ging).
Um die vollständige Liste der Seiten mit umgeleiteten Links zu exportieren, gehen Sie zu Bulk Export > Response Codes und wählen Sie "Redirection (3xx) In Links". Sie erhalten eine CSV-Datei, die den Standort aller umgeleiteten Links enthält. Um nur die interne Weiterleitung anzuzeigen, filtern Sie die Spalte "Ziel" in der CSV-Datei so, dass sie nur Ihre Domain enthält.
Profi-Tipp - Verwenden Sie VLOOKUP zwischen den beiden exportierten Dateien, um die Spalten Quelle und Ziel mit dem Ort der endgültigen URL zu verbinden.
Zum Beispiel:
=VLOOKUP([@Ziel],'response_codes_redirection_(3xx).csv'!$A$3:$F$50,6, FALSE)
(wobei "response_codes_redirection_(3xx).csv" die CSV-Datei ist, die die Weiterleitungslinks enthält, und "50" die Anzahl der Zeilen in dieser Datei ist)
Verwendung von SEO Spider für die interne Verlinkung
Interne Verlinkung kann einen guten ROI (Return on Investment) bringen, vor allem, wenn Sie eine Strategie zur Verteilung des PageRanks, Keyword-Rankings und Keywords mit Ankertexten haben.
Wie man Screaming Frog Link-Position, Pfad-Typ und Ziel anzeigt
Screaming Frog SEO Spider v.13 zeichnet einige neue Attribute für jeden Link auf.
So sehen Sie die Position der einzelnen Links in einem Crawl(z. B. Navigation, Seiteninhalt, Seitenleiste oder Fußzeile), sehen Sie sich die Crawl-Ergebnisse an. Die Klassifizierung erfolgt anhand des Pfads jedes Links (wie XPath) und der bekannten semantischen Teilstrings, die auf den Registerkarten "Inlinks" und "Outlinks" zu sehen sind.
Wenn Ihre Website semantische HTML5-Elemente (oder gut benannte nicht-semantische Elemente wie div id="nav") verwendet, ist SEO Spider in der Lage, die verschiedenen Teile der Webseite und die Links darin automatisch zu erkennen.
Da aber nicht jede Website auf diese Weise aufgebaut ist, können Sie die Klassifizierung der Linkpositionen unter Konfig > Benutzerdefiniert > Linkpositionen anpassen. Hier können Sie den Pfad des Links untergliedern, um ihn nach Ihren Wünschen zu klassifizieren.
Wir haben zum Beispiel mobile Menülinks außerhalb des nav-Elements, die als Inhaltslinks definiert sind. Dies ist nicht richtig, da es sich um eine zusätzliche Navigation für Mobiltelefone handelt.
Der Klassenname "mobile-menu__dropdown" (der wie oben gezeigt im Linkpfad steht) kann verwendet werden, um die korrekte Position des Links mit der Funktion "Links Positions" zu bestimmen. Siehe unten, wie man das Screaming Frog Seo Spider Programm richtig konfiguriert.
Diese Links werden dann ordnungsgemäß als Navigationslinks eingestuft.
Dies kann helfen, eingehende Links zu einer Seite nur aus dem Inhalt heraus zu identifizieren, z. B. indem Links in der Hauptnavigation oder der Fußzeile ignoriert werden, um eine bessere Analyse der internen Links zu ermöglichen.
Wie man absolute und relative Links herausfindet
Screaming Frog ermöglicht es Ihnen, den Pfad-Typ eines Links herauszufinden (absolut, relativ, Protokoll oder Root). Es kann in Links, ausgehenden Links und allen Bulk-Exporten gesehen werden.
Dies kann helfen, eingehende Links zu einer Seite nur aus dem Inhalt heraus zu identifizieren, z. B. indem Links in der Hauptnavigation oder der Fußzeile ignoriert werden, um eine bessere Analyse der internen Links zu ermöglichen.
Wie man absolute und relative Links herausfindet
Screaming Frog ermöglicht es Ihnen, den Pfad-Typ eines Links herauszufinden (absolut, relativ, Protokoll oder Root). Es kann in Links, ausgehenden Links und allen Bulk-Exporten gesehen werden.
Dies kann helfen, Links zu identifizieren, die absolut sein sollten, da es unter bestimmten Umständen Integritäts-, Sicherheits- und Leistungsprobleme gibt. Sie können nur absolute Links sortieren und exportieren.
Link-Ziel-Attribut
Außerdem können Sie jetzt anhand des Attributs "target" Links erkennen, die "_blank" verwenden, um in einer neuen Registerkarte geöffnet zu werden.
Dies ist sowohl bei der Analyse der Benutzerfreundlichkeit als auch der Leistung und Sicherheit nützlich, was uns zur nächsten Funktion führt.
Überprüfung von Website-Inhalten mit Screaming Frog
Wie man Seiten mit geringem Inhalt findet
Screaming Frog ermöglicht es Ihnen, Seiten mit wenig oder gar keinem Inhalt zu betrachten. Anweisungen:
- Nachdem der Algorithmus die Prüfung abgeschlossen hat, öffnen Sie die Registerkarte "Intern", sortieren Sie nach HTML und blättern Sie nach rechts zur Spalte "Wortanzahl".
- Sortieren Sie die Spalte "Wortanzahl" vom kleinsten zum größten Wert, um Seiten mit geringem Textinhalt zu finden. Sie können die Spalte "Wortanzahl" nach links ziehen, um besser zu verstehen, welche Seiten mit einer bestimmten Anzahl verbunden sind.
- Klicken Sie auf der Registerkarte "Intern" auf "Exportieren", wenn Sie mit Daten im CSV-Format arbeiten möchten.
Die obige Methode der Wortzählung bestimmt die Menge des tatsächlichen Textes auf einer Seite. Aber es gibt keine Möglichkeit, genau zu sein - es ist ein Produktname oder ein keyword-optimierter Textblock.
Profi-Tipps für E-Commerce-Websites. Um die Wortanzahl von Textblöcken zu ermitteln, verwenden Sie ImportXML2, um Textblöcke in einer beliebigen Seitenliste zu trennen, wenn Sie die Zeichen von dort aus zählen. Wenn xPath-Abfragen nicht Ihre Stärke sind, können Sie mit den Chrome-Erweiterungen xPath Helper oder Xpather den xPath für Sie ermitteln.
Wie man doppelten Inhalt auf einer Website findet
Um doppelte Inhalte zu finden, müssen Sie auf die Registerkarte "Inhalt" gehen, die Filter für "Beinahe-Duplikate" und "Exakte Duplikate" enthält.
Obwohl es keine Strafen für doppelte Inhalte gibt, können ähnliche Seiten zu Ineffizienzen beim Crawlen und Indizieren führen. Ähnliche Seiten sollten auf ein Minimum beschränkt werden, da eine hohe Ähnlichkeit ein Zeichen für minderwertige Seiten ist.
Anzeige der prozentualen Übereinstimmung von Inhalten
Bei "Beinahe-Duplikate" zeigt Ihnen SEO Spider die prozentuale Übereinstimmung sowie die nicht offensichtlichen Duplikate für jede URL an. Der Filter "Exakte Duplikate" verwendet dieselbe algorithmische Prüfung, um identische Seiten zu identifizieren, die zuvor auf der Registerkarte "URL" als "Duplikat" bezeichnet wurden.
Die neue Registerkarte "Beinahe-Duplikate" verwendet den Minhash-Algorithmus, der es Ihnen ermöglicht, einen nahezu identischen Schwellenwert festzulegen, der standardmäßig auf 90% eingestellt ist. Dieser kann über Config > Content > Duplicates konfiguriert werden.
Semantische Elemente wie Navigation und Fußzeile werden automatisch von der Inhaltsprüfung ausgeschlossen, aber Sie können sie verfeinern, indem Sie HTML-Elemente, Klassen und IDs aus- oder einschließen. Dies kann dazu beitragen, die Analyse auf den Hauptinhaltsbereich zu konzentrieren und bekannten Vorlagentext zu vermeiden. Es kann auch dazu verwendet werden, genauere Wortzählungen vorzunehmen.
Neben den Duplikaten, Die Analyse muss nach dem Scannen abgeschlossen werden.und weitere Details über Duplikate können auf der neuen unteren Registerkarte "Duplikatdetails" eingesehen werden. Hier werden alle identifizierten nahezu identischen URLs und ihre Übereinstimmungen angezeigt.
Wenn Sie in der Registerkarte "Duplikatdetails" auf "Adresse in der Nähe von Duplikaten" klicken, sehen Sie nicht offensichtliche doppelte Inhalte, die auf den Seiten gefunden wurden.
Der Schwellenwert für nahezu doppelte Inhalte und der für die Analyse verwendete Inhaltsbereich können nach dem Crawlen aktualisiert werden.
Die Registerkarte Inhalt enthält auch einen Filter "Seiten mit geringem Inhalt", der Seiten mit weniger als 200 Wörtern anhand einer verbesserten Zählung identifiziert. Dies kann unter Config > Spider > Preferences an Ihre Präferenzen angepasst werden, da es keine allgemeingültigen Kriterien für eine minimale SEO-Wortanzahl gibt.
Rechtschreib- und Grammatikprüfung
Neben dem Wissen, wie man eine Pressemitteilung oder andere Inhalte mit hoher Konversionsrate schreibt, ist es wichtig, sicherzustellen, dass sie fehlerfrei ist. Wie prüft man Rechtschreibung und Grammatik mit Screaming Frog? Der neue Reiter "Inhalt" enthält Filter für "Rechtschreibfehler" und "Grammatikfehler" und zeigt Zähler für jede gecrawlte Seite an.
Sie können die Rechtschreib- und Grammatikprüfung aktivieren Konfig > Inhalt > Rechtschreibung & Grammatik.
Dies unterscheidet sich zwar ein wenig von den üblichen, auf SEO ausgerichteten Funktionen von Screaming Frog, aber die Hauptaufgabe der Entwickler ist es, die Websites für die Nutzer zu verbessern. Googles Richtlinien für die Suchqualität beschreiben wiederholt Rechtschreib- und Grammatikfehler als eines der Merkmale von Seiten geringer Qualität.
Auf der rechten Seite der Registerkarte "Details" werden auch der visuelle Text der Seite und die gefundenen Fehler angezeigt.
Die Registerkarte Rechtschreibung und Grammatik im rechten Bereich zeigt die 100 gefundenen eindeutigen Fehler und die Anzahl der betroffenen URLs an. Dies kann nützlich sein, um Fehler in Vorlagen zu finden und um ein Wörterbuch oder eine Liste der ignorierten Wörter zu erstellen.
Screaming Frog's Rechtschreib- und Grammatikprüfung erkennt automatisch die auf der Seite verwendete Sprache über das HTML-Sprachattribut, erlaubt Ihnen aber auch, diese bei Bedarf manuell auszuwählen.
In den Screaming Frog SEO Spider Einstellungen können Sie die Rechtschreib- und Grammatikprüfung aktualisieren, um Änderungen in Ihrem Wortschatz zu reflektieren, die Liste oder Grammatikregeln zu ignorieren, ohne URLs neu zu scannen.
Sie können alle Daten über das Menü Massenexport > Inhalt exportieren.
Wie man eine Liste der Bildlinks auf einer bestimmten Seite erhält
Unabhängig davon, ob Sie die gesamte Website oder nur einen Unterordner überprüfen, wählen Sie einfach die Seite oben im Fenster aus und klicken Sie unten auf die Registerkarte "Bildinformationen", um alle auf der Seite gefundenen Bilder anzuzeigen. Sie werden in der Spalte "An" aufgelistet.
Profi-Tipp: Klicken Sie mit der rechten Maustaste auf einen Eintrag am unteren Rand des Fensters, um die URL zu kopieren oder zu öffnen.
Alternativ können Sie auch die Bilder auf der Seite sehen, indem Sie nur diese URL crawlen. Stellen Sie sicher, dass die Scantiefe auf "1" eingestellt ist. Sobald die Seite gecrawlt wurde, klicken Sie auf die Registerkarte "Bilder". Dort werden alle Bilder angezeigt, die der Algorithmus gefunden hat.
Alt-Check für Bilder
Screaming Frog Seo Spider erlaubt Ihnen, nach Textalternativen zu Bildern zu suchen: alt. Wie man es macht:
- Vergewissern Sie sich in den Einstellungen, dass "Bilder prüfen" unter Konfiguration > Spinne aktiviert ist.
- Öffnen Sie nach Abschluss der Prüfung die Registerkarte "Bilder" und sortieren Sie nach "Fehlendem Alttext" oder "Alttext über 100 Zeichen".
- Sie können die Bildseiten finden, indem Sie auf die Registerkarte "Bildinfo" am unteren Rand des Fensters gehen. Diese Seiten werden in der Spalte "Von" aufgeführt.
- Wenn Sie mit CSV besser zurechtkommen, öffnen Sie Bulk Export > All Images oder Bulk Export > Images > Images Missing Alt Text Inlinks, um die vollständige Liste der Bilder zu sehen. Dort sehen Sie auch die Position der Bilder, den zugehörigen Alt-Text oder Probleme mit diesem.
Wie man CSS-Dateien findet
Wählen Sie im Menü "Konfiguration > Spider" die Option "Crawl" und "Speichern" der CSS vor der Überprüfung. Sortieren Sie die Ergebnisse nach "CSS" auf der Registerkarte "Intern".
Wie man JavaScript-Dateien findet
Wählen Sie im Einstellungsmenü die Option "JavaScript prüfen", bevor Sie die Prüfung durchführen. Nach Abschluss der Prüfung sortieren Sie die Ergebnisse auf der Registerkarte "Intern" nach "JavaScript".
Wie erkennt man alle jQuery-Plugins auf einer Website und auf welchen Seiten sie verwendet werden?
Überprüfen Sie die Einstellungen und vergewissern Sie sich, dass "JavaScript prüfen" im Menü "Konfiguration > Spider" ausgewählt ist. Nach Abschluss der Prüfung sortieren Sie die Ergebnisse auf der Registerkarte "Intern" nach "JavaScript" und suchen Sie dann nach "jquery". Daraufhin erhalten Sie eine Liste von Plugins. Sortieren Sie die Liste ggf. nach "Adresse", um sie besser sehen zu können. Suchen Sie dann am unteren Rand des Fensters nach "InLinks" oder exportieren Sie in CSV, um die Seiten zu finden, auf denen die Dateien verwendet werden. Sie werden dann in der Spalte "Von" angezeigt.
Auch über das Menü "Bulk Export > All Links" können Sie eine CSV-Datei exportieren und die Spalte "Destination" filtern, um nur URLs mit jQuery anzuzeigen.
Profi-Tipp - wie man Screaming Frog benutzt
Nicht alle jQuery-Plugins sind schlecht für SEO. Wenn Sie sehen, dass die Website jQuery verwendet, sollten Sie sicherstellen, dass der Inhalt, den Sie indizieren möchten, im Seitenquelltext enthalten ist und während des Ladens der Seite verarbeitet wird, nicht danach.
Wie man verknüpfte interne PDF-Dateien findet
Sobald der Scanvorgang abgeschlossen ist, sortieren Sie die Ergebnisse auf der Registerkarte "Intern" nach "PDF".
So finden Sie Seiten mit einer Schaltfläche zum Teilen in sozialen Medien
Um Seiten zu finden, die die Schaltfläche "Teilen" enthalten, müssen Sie einen benutzerdefinierten Filter einrichten, bevor Sie die Prüfung durchführen. Öffnen Sie dazu Konfiguration > Benutzerdefiniert. Geben Sie dort ein beliebiges Code-Snippet aus der Seitenquelle ein.
Im obigen Beispiel wollten wir Seiten finden, die eine Facebook-Like-Schaltfläche enthalten. Zu diesem Zweck haben wir einen Filter für facebook.com/plugins/like.php erstellt
Wie man Seiten findet, die Frames verwenden
Um Seiten zu finden, die Frames verwenden, setzen Sie einen benutzerdefinierten Filter für den iframe über Konfiguration > Benutzerdefiniert, bevor Sie den Test starten.
Wie man Seiten mit eingebetteten Video- und Audioinhalten findet
Um Seiten mit Video- oder Audioinhalten zu finden, setzen Sie einen benutzerdefinierten Filter für das eingebettete Code-Snippet von Youtube oder einem anderen Media Player, der auf der Website verwendet wird.
5
Überprüfung von Metadaten: Wie man doppelte Titel und Beschreibungen findet
Wie man Seiten mit langen Metadaten findet
Um lange Titel und Beschreibungen zu finden, öffnen Sie nach Abschluss der Prüfung die Registerkarte "Seitentitel" und sortieren Sie nach "Über 60 Zeichen", um die langen Seitentitel zu sehen. Das Gleiche können Sie auf den Registerkarten "Meta-Beschreibung" und "URL" tun.
Wie man doppelte Titel und Beschreibungen findet
Um doppelte Titel- und Beschreibungsmetadaten zu finden, öffnen Sie nach Abschluss der Prüfung die Registerkarte "Seitentitel" und sortieren Sie nach "Duplikat". Das Gleiche können Sie auf den Registerkarten "Meta-Beschreibung" und "URL" tun.
Wie findet man Seiten mit den Meta-Direktiven noindex, nofollow, etc.
Mit Screaming Frog Seo Spider können Sie Seiten finden, die von der Indizierung ausgeschlossen sind. Nachdem Sie die Prüfung abgeschlossen haben, gehen Sie auf den Reiter "Richtlinien". Um den Typ zu sehen, scrollen Sie nach rechts und sehen Sie, welche Spalte gefüllt ist. Sie können auch den Filter benutzen, um eines der folgenden Tags zu finden:
- Index;
- noindex;
- folgen;
- nofollow;
- noarchive;
- nosnippet;
- noodp;
- noydir;
- noimageindex;
- notranslate;
- unavailable_after;
- erfrischen.
Diese Informationen können auch in der rechten Seitenleiste eingesehen werden.
Ist es möglich, die robots.txt-Datei zu überprüfen?
Screaming Frog entspricht standardmäßig der robots.txt-Datei. Vorrangig folgt er den Anweisungen, die speziell für den Screaming Frog User Agent erstellt wurden. Wenn es keine solchen Anweisungen gibt, folgt der Algorithmus den Anweisungen von Googlebot. Wenn es keine gibt, dann führt der Algorithmus die globalen Anweisungen für alle User-Agents aus.
Der Algorithmus wird einem Satz von Anweisungen folgen, d.h. wenn es einen Satz von Regeln nur für Screaming Frog gibt, wird er nur diesen folgen. Wenn Sie bestimmte Teile der Website vor dem Algorithmus verbergen wollen, verwenden Sie die normale "Screaming Frog SEO Spider" robots.txt Syntax. Wenn Sie robots.txt ignorieren wollen, wählen Sie einfach diese Option aus dem Einstellungsmenü: Konfiguration > robots.txt > Einstellungen.
Wie man Mikrodaten auf einer Website findet oder überprüft
Heute gibt es viele Markups für Webmaster. FAQ Schema ist das am weitesten verbreitete Schema. Wenn Sie es nicht auf Ihrer Website haben, es aber hinzufügen möchten, erfahren Sie mehr über die Vorteile der Verwendung von FAQ Schema für SEO, wie man es erstellt und häufige Fehler vermeidet oder korrigiert, in unserem Blog.
Um Seiten mit Markup oder Microdata mit Screaming Frog zu finden, verwenden Sie einen benutzerdefinierten Filter. Gehen Sie zu Konfiguration > Benutzerdefiniert > Suche und geben Sie das gewünschte Snippet ein.
Um Seiten mit Markup zu finden, fügen Sie den folgenden Codeschnipsel zu einem benutzerdefinierten Filter hinzu: itemtype=http://schema.org
Um eine bestimmte Art der Kennzeichnung zu finden, geben Sie die Details an. Wenn Sie zum Beispiel einen benutzerdefinierten Filter verwenden, erhalten Sie alle Seiten, die für Bewertungen gekennzeichnet sind.
Apropos Screaming Frog 11.0, der SEO-Algorithmus bietet auch die Möglichkeit, strukturierte Daten direkt aus Suchergebnissen zu prüfen, zu extrahieren und zu strukturieren. Überprüfen Sie alle JSON-LD, Microdata oder RDF strukturierten Daten gegen Scema.org Richtlinien und Google Spezifikationen in Echtzeit während des Prozesses der Überprüfung. Um auf die Tools zur Prüfung strukturierter Daten zuzugreifen, wählen Sie die Option Konfiguration > Spider > Erweitert > Strukturierte Daten.
Jetzt sehen Sie die Registerkarte Strukturierte Daten in der Hauptschnittstelle. Sie ermöglicht es Ihnen, zwischen Seiten mit strukturierten Daten zu wechseln, auf denen diese Daten fehlen. Sie können auch Validierungsfehler und Warnungen enthalten.
Sie können auch Probleme mit strukturierten Daten mit Screaming Frog exportieren, indem Sie Reports > Structured Data > Validation Errors&Warnings besuchen.
Erstellung und Validierung einer Sitemap in Screaming Frog
Wie man eine Sitemap in Screaming Frog erstellt (XML)
Es gibt viele SEO-Tools im Internet, mit denen man eine XML- oder visuelle Sitemap erstellen kann. Screaming Frog ist eine der populärsten und einfach zu bedienenden Software, die einen XML-Sitemap-Generator anbietet. Um eine sitemap.xml-Datei mit Screaming Frog Spider zu erstellen, gehen Sie nach dem Crawlen der Website zu Sitemaps > Sitemap XML.
Sobald Sie die Sitemap XML-Einstellungen öffnen, können Sie Seiten nach Antwortcode, Änderungsdatum, Priorität, Änderungshäufigkeit usw. ein- und ausschließen. Screaming Frog schließt standardmäßig 2xx URLs ein, aber eine doppelte Überprüfung ist eine gute Regel.
Idealerweise sollte die Sitemap Seiten mit Status 200, die kanonische Version jeder URL ohne doppelte Faktoren enthalten. Klicken Sie auf OK, um Ihre Änderungen zu speichern. Die XML-Sitemap wird auf Ihr Gerät heruntergeladen und ermöglicht es Ihnen, die Benennungskonvention nach eigenem Ermessen zu bearbeiten.
Wie man eine XML-Sitemap durch Hochladen einer URL erstellt
Sie können auch eine XML-Sitemap erstellen, indem Sie URLs aus einer bestehenden Datei hochladen oder sie manuell in Screaming Frog einfügen.
Ändern Sie den Modus von Spider auf Liste im Modus und klicken Sie auf Hochladen, um eine der Optionen auszuwählen.
Klicken Sie auf die Schaltfläche Start und Screaming Frog wird die hochgeladenen URLs überprüfen. Sobald er das tut, können Sie die oben genannten Schritte durchführen.
So crawlen Sie eine vorhandene XML-Sitemap
Sie können eine vorhandene XML-Sitemap hochladen, um sie auf Fehler oder Unstimmigkeiten zu überprüfen.
Öffnen Sie das Menü "Modus" in Screaming Frog und wählen Sie "Liste". Klicken Sie dann auf "Upload" am oberen Rand des Bildschirms und wählen Sie "Download Sitemap" oder "Download Sitemap Index", geben Sie die Sitemap-URL ein und starten Sie die Überprüfung. Sobald die Prüfung abgeschlossen ist, können Sie Weiterleitungen, 404-Fehler, doppelte URLs usw. finden.
Prüfen auf fehlende Seiten in einer XML-Sitemap
Sie können Validierungsoptionen einrichten, um die URLs in der Sitemap zu prüfen und mit den URLs aus der Suche zu vergleichen.
Gehen Sie in der Navigation auf Konfiguration > Spider und Sie haben mehrere Optionen für Sitemap XML - Automatische Erkennung von XML-Sitemaps über die robots.txt-Datei oder geben Sie einen Link zu Sitemap XML in das Fenster ein.
Hinweis: Wenn Ihre robots.txt-Datei nicht die richtigen Ziellinks für alle zu überprüfenden XML-Sitemaps enthält, geben Sie sie manuell ein.
Nachdem Sie die Einstellungen für die Sitemap-Validierung aktualisiert haben, öffnen Sie "Crawl Analysis", klicken Sie auf "Configure" und vergewissern Sie sich, dass die Schaltfläche Sitemap aktiviert ist. Wenn Sie zuerst einen vollständigen Website-Crawl durchführen möchten, gehen Sie zurück zu Crawl Analysis und klicken Sie auf Start.
Nach Abschluss der Crawl-Analyse können Sie alle Unstimmigkeiten sehen. Zum Beispiel Links, die bei einem vollständigen Crawl identifiziert wurden, aber in der Sitemap fehlen.
Andere technische Probleme, bei deren Lösung Screaming Frog helfen wird
Warum ein bestimmter Abschnitt einer Website nicht indiziert oder eingestuft ist
Versuchen Sie herauszufinden, warum bestimmte Seiten nicht indiziert werden? Stellen Sie zunächst sicher, dass sie nicht versehentlich in der robots.txt landen oder als noindex markiert sind. Wir haben oben geschrieben, welche Screaming Frog Seo Spider Berichte Sie beobachten müssen.
Überprüfen Sie anschließend, ob die Algorithmen die Seiten erreichen können, indem Sie die internen Links überprüfen. Seiten ohne interne Verlinkung werden als Orphaned Pages bezeichnet. Wie findet man verwaiste Seiten auf einer Website mit Screaming Frog? Um solche Seiten zu identifizieren, folgen Sie diesen Schritten:
- Gehen Sie zu Konfiguration > Spider. Ganz unten finden Sie einige Optionen für die Sitemap-XML. Sie können die Sitemap entweder automatisch über robots.txt validieren lassen oder den Sitemap-XML-Link manuell eingeben.
Wenn die robots.txt nicht die korrekten Ziellinks zu allen XML-Sitemaps enthält, die Sie scannen möchten, müssen Sie diese manuell eingeben; - gehen Sie zu Konfiguration > API-Zugang > Google Analytics. Über die API können Sie Analysedaten für ein bestimmtes Konto abrufen und anzeigen. Um verwaiste Seiten aus der organischen Suche zu finden, stellen Sie sicher, dass Sie nach "Organischem Traffic" segmentieren;
- Sie können auch auf die Registerkarte Allgemein > Neue URLs, die in Google Analytics entdeckt wurden, crawlen, wenn Sie möchten, dass diese in die Überprüfung der gesamten Website einbezogen werden. Wenn diese Einstellung nicht aktiviert ist, können Sie neue URLs aus Google Analytics nur im Bericht "Verwaiste Seiten" anzeigen;
- gehen Sie zu Konfiguration > API-Zugang > Google Search Console. Mithilfe der API können Sie die Analysedaten von Google Search Console für ein bestimmtes Konto abrufen und anzeigen. Um verwaiste Seiten zu finden, können Sie nach URLs suchen, die Klicks und Impressionen erhalten, die nicht im Crawl enthalten waren. Tipp: Sie können auch zu Allgemein > Neue URLs in der Google Search Console crawlen gehen, wenn Sie möchten, dass diese in die Prüfung der gesamten Website einbezogen werden. Wenn diese Einstellung nicht aktiviert ist, können Sie neue URLs aus der Google Search Console nur im Bericht "Verwaiste Seiten" sehen;
- Crawlen Sie die gesamte Website. Gehen Sie anschließend zu Crawl Analysis > Start und warten Sie, bis der Vorgang abgeschlossen ist;
- Sie können die verwaisten URLs in jeder Registerkarte anzeigen oder die URLs in großen Mengen exportieren, indem Sie zu Berichte > Verwaiste Seiten gehen.
Wenn Sie keinen Zugang zu Google Analytics oder Search Console haben, können Sie die Liste der internen URLs als CSV-Datei exportieren, indem Sie den Filter "HTML" auf der Registerkarte "Intern" verwenden.
Öffnen Sie die CSV-Datei und fügen Sie auf der zweiten Seite eine Liste der URLs ein, die nicht indiziert sind oder nicht sehr gut ranken. Verwenden Sie VLOOKUP, um die beim Crawlen gefundenen URLs auf der zweiten Seite zu sehen.
So überprüfen Sie, ob die Migration der Website erfolgreich war
Sie können Screaming Frog verwenden, um zu überprüfen, ob alte URLs umgeleitet wurden, indem Sie den Listenmodus verwenden, um den Code-Status zu überprüfen. Wenn die alten Links einen 404-Fehler zurückgeben, dann wissen Sie, welche URLs umgeleitet werden sollten.
So finden Sie Seiten mit einer langsamen Ladegeschwindigkeit
Screaming Frog wird Ihnen helfen, Seiten mit einer langsamen Ladegeschwindigkeit zu finden. Nachdem der Scan abgeschlossen ist, öffnen Sie den Reiter "Response Code" und sortieren Sie die Spalte "Response Time" in absteigender Reihenfolge. Auf diese Weise können Sie Seiten mit einer langsamen Ladegeschwindigkeit identifizieren.
Wie man bösartige Software oder Spam auf einer Website findet
Zunächst müssen Sie Spuren von Schadsoftware oder Spam erkennen. Gehen Sie dann im Einstellungsmenü auf Benutzerdefiniert > Suchen und geben Sie das gesuchte Snippet ein.
Sie können bis zu 10 Fragmente pro Scan eingeben. Klicken Sie dann auf OK und fahren Sie mit dem Scannen der Website oder der Liste der Seiten fort.
Wählen Sie nach Abschluss des Scans die Registerkarte "Benutzerdefiniert" oben im Fenster, um alle Seiten anzuzeigen, die das angegebene Fragment enthalten. Wenn Sie mehr als einen benutzerdefinierten Filter eingegeben haben, können Sie jeden einzelnen Filter anzeigen, indem Sie ihn in den Ergebnissen ändern.
PPC-Überprüfung und -Analyse
Wie man eine PPC-URL-Liste validiert
Speichern Sie die Liste als .csv- oder .txt-Datei. Ändern Sie die Einstellung "Modus" auf "Liste".
Wählen Sie dann eine Datei zum Hochladen. Sie können auf Start klicken, oder die Liste manuell in Screaming Frog einfügen. Schauen Sie sich den Statuscode jeder Seite auf der Registerkarte "Intern" an.
Bereinigung von Informationen in Seo Frog Spider
Bereinigung von Metadaten für eine Seitenliste
Sie haben also eine Reihe von URLs, brauchen aber mehr Informationen über sie? Stellen Sie zunächst den Modus auf "Liste". Laden Sie die Liste der URLs hoch (.csv- oder .txt-Datei). Nach der Überprüfung können Sie Code-Status, ausgehende Links, Wortzahl und Metadaten für jede Seite in Ihrer Liste sehen.
Bereinigung der Website von Seiten, die bestimmte Informationen enthalten
Gehen Sie zu "Einstellungen", wählen Sie im Menü "Benutzerdefiniert" die Option "Extraktion oder Suche" und geben Sie das gewünschte Fragment ein.
Sie können bis zu 10 verschiedene Snippets pro Suche eingeben. Klicken Sie auf OK und fahren Sie mit dem Crawlen der Website oder der Liste der Seiten fort. Im folgenden Beispiel wollten wir alle Seiten finden, die "Bitte anrufen" im Abschnitt "Preise" enthalten, also haben wir den HTML-Code aus der Quelle der Seite gefunden und kopiert.
Nach Abschluss der Suche wählen Sie die Registerkarte "Benutzerdefiniert" im oberen Teil des Fensters und sehen alle Seiten mit dem gewünschten Fragment. Wenn Sie mehr als einen benutzerdefinierten Filter eingegeben haben, können Sie jeden einzelnen anzeigen, indem Sie den Ergebnisfilter ändern.
Pro-Tipp - Wenn Sie Daten von der Website eines Kunden abrufen, können Sie Zeit sparen, indem Sie den Kunden bitten, die Daten direkt aus der Datenbank zu holen. Diese Methode eignet sich für Websites, auf die Sie keinen direkten Zugriff haben.
Umbenennen von URLs in den Programmeinstellungen
So finden und ersetzen Sie Sitzungs-IDs oder andere Parameter auf gescannten Seiten
Um URLs mit Sitzungs-IDs oder anderen Parametern zu identifizieren, scannen Sie einfach Ihre Website mit den Standardeinstellungen. Gehen Sie nach Abschluss der Prüfung auf die Registerkarte "URL" und sortieren Sie nach "Parametern", um alle Links mit Parametern anzuzeigen.
Um Parameter aus der Anzeige in überprüften URLs zu entfernen, gehen Sie zu Konfiguration > URL-Rewriting. Klicken Sie dann auf der Registerkarte "Parameter entfernen" auf "Hinzufügen", um die Parameter hinzuzufügen, die Sie aus den URLs entfernen möchten, und klicken Sie auf OK. Starten Sie den Scan mit diesen Überschreibungseinstellungen erneut.
Umbenennen von verifizierten URLs
Wenn Sie URLs umbenennen müssen, nachdem Sie eine Website mit Screaming Frog Seo Spider gecrawlt haben, gehen Sie zu Konfiguration > URL Rewriting, um jede verifizierte URL umzuschreiben. Klicken Sie dann auf der Registerkarte "Regex Replace" auf "Add", um die Reg Ex für das, was Sie ersetzen möchten, hinzuzufügen.
Sobald Sie alle gewünschten Regeln hinzugefügt haben, können Sie sie auf der Registerkarte "Test" testen. Geben Sie dazu eine Test-URL in "URL vor Rewriting" ein. Die "URL nach dem Umschreiben" wird automatisch gemäß Ihren Regeln aktualisiert.
Wenn Sie eine Regel festlegen möchten, dass alle URLs in Kleinbuchstaben zurückgegeben werden, setzen Sie auf der Registerkarte "Optionen" die Option "Entdeckte URLs klein schreiben". Dadurch wird jede Duplizierung von Kopf-URLs in der Prüfung entfernt.
Vergessen Sie nicht, den Scanvorgang mit diesen Überschreibungseinstellungen neu zu starten.
Analyse der Schlüsselwörter der Mitbewerber
Wie finde ich die wichtigsten Seiten meiner Konkurrenten heraus?
In der Regel versuchen die Konkurrenten, die Link-Popularität zu erhöhen und den Verkehr auf die wertvollsten Seiten durch interne Verlinkung zu lenken. Konkurrenten mit einer SEO-Mentalität werden eher auf wichtige Seiten aus dem Blog des Unternehmens verlinken. Finden Sie wertvolle Seiten Ihrer Konkurrenten, indem Sie deren Website scannen. Sortieren Sie dann die Spalte "Inlinks" auf der Registerkarte "Intern" in absteigender Reihenfolge, um die Seiten mit den meisten internen Links zu sehen.
Um Seiten anzuzeigen, die vom Blog Ihres Konkurrenten verlinkt sind, deaktivieren Sie unter Konfiguration > Spider die Option "Links außerhalb des Ordners prüfen" und scannen Sie den Blog-Ordner. Sortieren Sie dann auf der Registerkarte "Extern" die Ergebnisse mithilfe der Suche nach der primären Domain-URL. Scrollen Sie nach rechts und sortieren Sie die Liste in der Spalte "Inlinks", um die am häufigsten verlinkten Seiten zu sehen.
Profi-Tipp: Ziehen Sie eine Spalte nach links oder rechts, um die Anzeige der Daten zu verbessern.
Welche Verankerungen verwenden meine Konkurrenten für interne Links?
Screaming Frog Seo Spider erlaubt Ihnen, die Anker auf Ihrer Website oder die Anker der Konkurrenz zu analysieren.
Gehen Sie auf Massenexport > Alle Ankertexte, um eine CSV-Datei zu exportieren, die alle Ankertexte auf der Website enthält, wo sie verwendet werden und worauf sie verweisen.
Wie man die ausgehenden Links einer Website findet und sie für den Linkaufbau nutzt
So erhalten Sie eine Liste vielversprechender Linkpositionen
Wenn Sie eine Liste von URLs gelöscht oder erstellt haben, die Sie überprüfen möchten, können Sie diese im Modus "Liste" herunterladen und scannen, um weitere Informationen über die Seiten zu erhalten. Prüfen Sie die Statuscodes auf der Registerkarte "Antwortcodes", wenn der Scan abgeschlossen ist. Sehen Sie sich die ausgehenden Links, ihre Typen, Ankertexte und nofollow-Anweisungen auf der Registerkarte "Outlinks" im unteren Fenster an. So erfahren Sie, auf welche Websites diese Seiten verweisen. Um die Registerkarte "Outlinks" anzuzeigen, vergewissern Sie sich, dass die URL, die Sie interessiert, im oberen Fenster ausgewählt ist.
Mit einem benutzerdefinierten Filter können Sie natürlich überprüfen, ob diese Seiten zu Ihnen verlinken oder nicht.
Sie können auch die gesamte Liste der externen Links exportieren, indem Sie Massenexport > Alle externen Links wählen. Damit erhalten Sie nicht nur Links zu externen Websites, sondern auch alle internen Links auf den einzelnen Seiten Ihrer Liste.
Wie man defekte Links für Outreach-Möglichkeiten findet
Haben Sie also die Seite gefunden, von der Sie einen Link erhalten möchten? Verwenden Sie Screaming Frog, um defekte Links auf der Seite oder Website zu finden, und wenden Sie sich dann an den Website-Eigentümer, indem Sie Ihre Ressource als Ersatz für den defekten Link vorschlagen, sofern möglich. Dies kann eine erfolgreiche Taktik sein, wenn Sie sich im Linkaufbau für E-Commerce-Websites oder jede andere Art von Website engagieren. Nun, oder bieten Sie einfach einen defekten Link als Geste des guten Willens an 🙂
Wie man Backlinks überprüft und den Ankertext sieht
Laden Sie Ihre Backlinkliste und führen Sie den Algorithmus im Modus > Listenmodus aus. Exportieren Sie dann die vollständige Liste der ausgehenden Links, indem Sie auf Bulk Export > All Outlinks gehen. So erhalten Sie die URLs und Anker-/Alt-Text für alle Links auf diesen Seiten. Sie können dann den Filter in der Spalte "Ziel" in der CSV-Datei verwenden, um festzustellen, ob Ihre Website verlinkt wird und welcher Anker-/Alt-Text enthalten ist.
Wie man sicherstellt, dass Backlinks entfernt wurden
Setzen Sie einen benutzerdefinierten Filter, der die Root-Domain-URL enthält, indem Sie zu Konfiguration > Benutzerdefiniert > Suche gehen. Laden Sie dann die Liste der Backlinks und führen Sie den Algorithmus im Modus > Listenmodus aus. Sobald der Scan abgeschlossen ist, klicken Sie auf die Registerkarte "Benutzerdefiniert", um alle Seiten zu sehen, die noch auf Sie verlinken.
Bonusrunde
Wussten Sie, dass Sie, wenn Sie mit der rechten Maustaste auf eine beliebige URL im obersten Ergebnisfenster klicken, eine der folgenden Möglichkeiten haben?
- URL kopieren oder öffnen;
- neu crawlen oder die URL entfernen;
- URL-Informationen, eingehende Links, Backlinks oder Bildinformationen für diese Seite exportieren;
- die Indexierung der Seite in Google, Bing und Yahoo überprüfen;
- Prüfen Sie die Backlinks zur Seite in Majestic, OSE, Ahrefs und Blekko;
- die Cache-Version und das Cache-Datum der Seite ansehen;
- alte Versionen der Seite anzeigen;
- Prüfen Sie den HTML-Code der Seite;
- Öffnen Sie die robots.txt-Datei für die Domain, in der sich die Seite befindet;
- andere Domains auf derselben IP finden.
Wie man Metadaten bearbeitet
Im SERP-Modus können Sie SERP-Snippets auf dem Gerät anzeigen, um Metadaten in Suchergebnissen zu visualisieren.
- Laden Sie URLs, Titel und Meta-Beschreibungen zu Screaming Frog hoch, indem Sie ein CSV- oder Excel-Dokument verwenden.
Hinweis dass Sie, wenn Sie Ihre Website bereits gecrawlt haben, URLs exportieren können, indem Sie Berichte > SERP-Zusammenfassung wählen. So können Sie die URLs und Metadaten, die Sie herunterladen und bearbeiten möchten, einfach formatieren. - Gehen Sie zu Modus > SERP > Datei hochladen.
- Bearbeiten Sie die Metadaten in Screaming Frog.
- Führen Sie einen Massenexport von Metadaten durch, um sie direkt an Entwickler zu senden.
Wie man eine JavaScript-Website crawlt
JavaScript-Frameworks wie Angular, React usw. werden zunehmend zur Erstellung von Websites verwendet. Google empfiehlt die Verwendung einer Rendering-Lösung, da Googlebot noch versucht, den JavaScript-Inhalt zu scannen. Wenn Sie eine Website mit JavaScript definiert haben und crawlen möchten, folgen Sie den nachstehenden Anweisungen:
- Gehen Sie zu Konfiguration > Spider > Rendering > JavaScript;
- Ändern Sie die Render-Einstellungen, je nachdem, wonach Sie suchen. Sie können die Zeitüberschreitung und die Fenstergröße (Handy, Tablet, Desktop) anpassen;
- Klicken Sie auf OK und starten Sie den Scanvorgang.
Klicken Sie unten in der Navigation auf die Registerkarte "Gerenderte Seite", um zu sehen, wie die Seite angezeigt wird. Wenn sie nicht richtig angezeigt wird, prüfen Sie, ob Ressourcen blockiert sind, oder erhöhen Sie in den Konfigurationseinstellungen das Zeitlimit für die Verbindung. Wenn keine der Optionen das Problem löst, liegt ein schwerwiegenderes Problem vor.
Sie können alle blockierten Ressourcen, die das Crawling und Rendering Ihrer Website beeinträchtigen könnten, anzeigen und als Bulk-Export exportieren, indem Sie zu Bulk Export > Response Codes gehen.
FAQ (Häufig gestellte Fragen)
Frage 1: Lohnt sich die Screaming Frog Software?
Ja, das ist es. Welche Screaming Frog SEO Spider Bewertung Sie auch immer im Internet finden und lesen, Sie werden sehen, dass dieses Tool es definitiv wert ist, verwendet zu werden. Aufgrund unserer eigenen Erfahrung können wir mit absoluter Sicherheit sagen, dass es SEO-Spezialisten eine Menge Zeit spart.
Das bedeutet natürlich nicht, dass Sie keine anderen Tools verwenden müssen. Es gibt eine Menge nützlicher Software, die Ihnen helfen kann, die SEO-Leistung Ihrer Website zu verbessern. Sie können zum Beispiel zusätzlich den Ahrefs-Dienst nutzen.
Frage 2: Wie benutzt man dieses Screaming Frog SEO Spider Tutorial?
- Sehen Sie sich das Tutorial an.
- Definieren Sie Ihre SEO-Aufgaben klar.
- Suchen Sie den entsprechenden Abschnitt eines Tutorials und folgen Sie unseren Empfehlungen.
In unserem Screaming Frog-Tutorial geben wir Ihnen die besten Tipps zur Nutzung dieses Tools und teilen unsere eigenen Erfahrungen.
Frage 3: Gibt es gute Screaming Frog SEO Spider Bewertungen?
Sie können tonnenweise Bewertungen online finden, wie Spezialisten Screaming Frog SEO Spider für ihre Arbeit nutzen. Praktisch alle von ihnen sind mit diesem Tool zufrieden und empfehlen es für den Einsatz.
Frage 4: Wie viele Personen können die Screaming Frog SEO Spider Lizenz nutzen?
Jeder Lizenzschlüssel kann nur von einem einzelnen Benutzer verwendet werden.
Frage 5: Wofür wird Screaming Frog verwendet?
Es hilft bei der Durchführung eines detaillierten Website-Audits, um SEO-Fehler von kurzen Titeln bis hin zu fehlerhaften internen und externen Links zu entdecken. Dieses Tool bietet eine Vielzahl von Funktionen. So können Sie leicht herausfinden, was richtig gemacht wird und was Sie auf Ihrer Website ändern müssen.