Anzeige
Diese Webseite verwendet Affiliate-Links. Erfolgt eine Bestellung oder ein Kauf über diese Links, erhält trusted eine Provision vom jeweiligen Anbieter. Das ermöglicht es uns, Ihnen unseren Service und unsere Inhalte kostenlos zur Verfügung zu stellen. Die Provision hat keinen Einfluss auf unsere Bewertung oder unser Ranking! Wir bewerten stets neutral und unabhängig.
Test

Beste Web Scraping Software » Testsieger 2024 im Vergleich

Web Scraping automatisiert deine Recherche und spart dir wertvolle Zeit. Lies in meinem Test, mit welchem Tool du am besten loslegst!

Klickst Du auf eine Emp­feh­lung mit , unterstützt das unsere Arbeit. trusted bekommt dann ggf. eine Vergütung. Emp­feh­lungen geben wir immer nur redaktionell unabhängig.Mehr Infos.

Die besten Web Scraping-Tools

  • ParseHubBester für No-Code-Scraping
    1,4
    Testnote
    Sehr gut
  • OctoparseBester für die Leadgenerierung
    3.2
    1,4
    Testnote
    Sehr gut
  • ScrapingbeeBester für Coding-Anfänger:innen
    1,4
    Testnote
    Sehr gut
  • ScraperAPIBester für Coding-Profis
    4.7
    1,5
    Testnote
    Sehr gut
  • Web ScraperBester für schnelles Scraping im Browser
    2
    1,5
    Testnote
    Sehr gut
Warum kannst du trusted vertrauen?
Wir sind ein unabhängiges Test- und Vergleichsportal und vergleichen bereits seit 2010 Cloud-Software und digitale Dienste aus mittlerweile über 250 Kategorien. Unsere Bewertungen basieren auf unseren redaktionellen Testergebnissen und sind fair, transparent und unabhängig. Hier erfährst du mehr darüber, wie wir Web Scraper getestet haben.
6
Scraper getestet
120
Testkriterien
60
Testzeit (Stunden)

Was zeichnet die Testsieger im Detail aus?

Von unseren 7 vorgestellten Tools haben wir 6 einem ausgiebigen Praxistest unterzogen. Diese 6 haben uns in verschiedenen Bereichen überzeugt. So gefallen uns etwa Bright Data mit seiner Funktionsfülle, Octoparse mit seinem top No-Code-System oder ParseHub mit seinem smarten Tutorial.

Alle Testergebnisse findest du unten übersichtlich aufgelistet, damit du dein perfektes Web Scraping Tool findest. Neugierig, welcher unserer Kandidaten am besten zu dir passt? Dann lies hier weiter:

Testsieger: trusted Empfehlungen

1

Bright Data

4.6
1,0
Testnote
Sehr gut
  • No-Code-Plattform Nein
  • Anzahl Proxies > 72 Mio.
  • Einrichtung einfach
  • Datenqualität 5 von 5
  • Export-Formate Tabelle, API, JSON, BI-Tools, HTML, Webhook, Google Cloud, AWS S3, Azure, Alibaba Cloud, Snowflake, weitere

Bright Data landet in meinem Web Scraping-Test auf Platz 1. Das liegt vor allem an der großen Auswahl von Assistenztools wie der Captcha-Lösung und dem integrierten Parser, an den vielfältigen Datenformate und Export-Funktionen. Die Erfolgsquote von über 90 % ist hervorragend und der kompetente Support das i-Tüpfelchen.

Auch die Usability ist solide, erfordert aber Programmierkenntnisse, sonst bist du aufgeschmissen. Kannst du damit nichts anfangen, sind No-Code-Alternativen wie Octoparse, Parsehub oder WebScraper eher was für dich.

Bright Data – Bester für blockfreies Scraping

Besonders stark an Bright Data ist, dass du mit dem Tool überdurchschnittlich erfolgreich und mit wenigen Blocks sämtliche Arten von Daten crapen kannst. Dafür sorgt der große und zuverlässige Proxy-Pool, der Scraping ohne Blockierung ermöglicht. Captcha-Umgehung und Custom Header minimieren das Blockrisiko zusätzlich.

Heißt konkret: Es gibt fast nichts, was Bright Data nicht scrapen kann. Das klappt auch bei großen oder mehreren parallel laufenden Scraping-Jobs.

Setup & Scraping

Bright Data ist im Kern eine Hilfestellung beim Bau von API-Calls mit Proxy-Unterstützung. Du nutzt dabei einen Code-Scraper, der folgende Code-Sprachen unterstützt:

  • NodeJS (nativ)
  • Python (nativ)
  • Java (via Library)
  • Ruby (via Library)
  • C# (via Library)
  • Go (via Library)

Der Scraping-Erfolg ist überdurchschnittlich hoch. Nur in Ausnahmefällen stößt Bright Data an seine Grenzen. Probleme gibt es laut Community hin und wieder mit einzelnen Proxies im Bright Data-Netzwerk. Dann werden Scrape-Versuche trotz aller technischen Finessen geblockt.

Aber keine Panik: Es genügt eine Meldung an das Supportteam. Das findet fast immer einen Weg, nachzujustieren, und aktuelle Anti-Scraping oder Anti-Bot-Technologien auszuhebeln. Und ist dazu noch 24/7 und auf allen Kanälen erreichbar.

Wer möchte (und das nötige Kleingeld hat), kann Scraping-Aufträge als “Fully Managed Datasets” an den Anbieter outsourcen. Dann bezahlst du einmalig für ein fertiges Datenset im gewünschten Format. Stark; diesen Service bieten in meinem Testfeld nur zwei Anbieter: Bright Data und ParseHub.

Ein weiterer Teil des Erfolgsrezeptes ist die Sammlung praktischer Templates für deine API-Calls. Damit baust du deine Scraper für die verschiedensten Anwendungsfälle schnellere und erfolgreicher zusammen:

Bright Data kommt mit über 200 vorgefertigten API-Vorlagen; davon rund 100 alleine für den E-Commerce. Damit eignet sich Bright Data hervorragend für Preisüberwachung und Preisvergleiche. Aber auch Marketingteams, Social-Media-Manager und Marktforscher:innen kommen mit den enthaltenen Templates auf ihre Kosten.

Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Bright Data ist eindeutig für Profis gemacht. Wer sich nicht auskennt, sollte ganz dringend die Finger davon lassen. Vor allem, weil nicht perfekt optimierte Runs mehr Credits kosten, als sie müssten. Hier empfiehlt sich definitiv Vorwissen! Profis bekommen dagegen einen gut gefüllten und verlässlichen Werkzeugkasten mit vielen tollen Features.

Kosten

Bright Data bedient sich eines Prepaid-Tarifs. Du zahlst jeden Monat ein Guthaben in Höhe des Monatspreises ein und nutzt dieses Guthaben zum Bezahlen deiner Scraping-Runs.

Pay-as-you-go$1/pro 1.000 Records
Growth$499/Monat
Business$999/Monat
Premium$1.999/Monat
EnterpriseAuf Anfrage

Das Tool ist nicht das günstigste auf dem Markt, trotzdem bewerte ich Bright Data in Sachen Kosten sehr positiv. Der Grund: es gibt eine Pay-as-You-go-Option, mit der eine smarte Kostenkontrolle möglich ist.

Mit diesem “Zahl-nur-was-du-brauchst”-Tarif eignet sich das “Luxus-Tool” Bright Data auch für Freelancer und Selbstständige. Eine Skalierung bis hin zu großen Unternehmen schafft der Scraper ebenfalls.

Vorteile
  • Großer und effektiver Proxy-Pool
  • Über 200 API-Call-Templates
  • Option für Fully Managed Datasets
  • Schneller und kompetenter Support
Nachteile
  • Sehr teure Premium-Tarife
  • Fehler bei Residential Proxies
Bright Data
4.6
Testbericht
2

ParseHub

1,4
Testnote
Sehr gut
  • No-Code-Plattform Ja
  • Anzahl Proxies K. A.
  • Einfachheit Scraper-Einrichtung 4,5 / 5
  • Datenqualität 4,5 / 5
  • Export-Formate & Ausgabeziele Tabelle, API, JSON, BI-Tools, Dropbox

ParseHub ist ein No-Code Scraper. Was mir an ihm gefällt: Er ist einsteigerfreundlich, mit vielen praktischen Funktionen ausgestattet und bietet eine praktische Trennung von Template-Abschnitten auf eigene Template-Seiten. Allerdings hat das Tool die Tendenz, sich aufzuhängen oder Elemente nicht immer zuverlässig zu erfassen.

Daher landet ParseHub nach mehreren Refreshes und Neustarts auf Platz zwei hinter Bright Data.

ParseHub – Bester für No-Code-Scraping

ParseHub ist in meinem Test zum besten No-Code-Tool (und damit auch das beste Tool für Anfänger:innen) gekürt worden. Dafür gibt es zwei gute Gründe. Erstens kommt ParseHub mit einem verständlichen und gut gemachten Tutorial, dass dir durch Mitmachen zeigt, wie der Scraper funktioniert. Das erleichtert den Einstieg massiv.

Zweitens ist ParseHub (wie WebScraper oder Octoparse) ein No-Code-Tool, sodass du (fast) keine Coding-Kenntnisse brauchst, um Daten damit zu scrapen.

Setup & Scraping

Aber, warum “fast” keinen Code? Nun, trotz der Versprechen des Anbieters kommt ParseHub nicht zu 100 % ohne Programmieren aus. Für fortgeschrittene Funktionen brauchst du ein paar Snippets, die du dir aber bei Bedarf einfach aus der Dokumentation kopieren kannst.

Ich würde ParseHub am ehesten Usern empfehlen, die viele Leads oder Infos zu Forschungszwecken scrapen müssen. Die brauchen keinen IT-Hintergrund, können aber trotzdem zügig große Datenmengen scrapen. Aber Achtung: Nutzer:innen aus dem Marketing scrapen mit ParseHub zügig Leads, können aber nicht auf Geotargeting für lokale Webansichten zurückgreifen.

Ein weiteres Argument für die Nutzung in der Forschung: Schulen, Universitäten und andere Lehranstalten bekommen Standard-Lizenzen von Parsehub nicht nur vergünstigt, wie bei anderen Scrapern, sondern komplett kostenlos.

Die No-Code-Lösung ParseHub überzeugt mit einem einfachen Einstieg und einem sauberen Handling. Allerdings musst du wie erwähnt für einige wenige Features kleine Code-Schnipsel einfügen, um deinen Scraper zum Laufen zu kriegen.

Für mich okay; aber eben nicht, was auf der No-Code-Verpackung steht.

Davon abgesehen ist ParseHup wohl eine der besten Einstiegslösungen für Neulinge in der Materie. Statt einzelner Video-Tutorials kommt ParseHub mit einer interaktiven Einführung ins Tool, das dich Schritt für Schritt an die Bedienung des Scrapers heranführt. Das macht es deutlich einfacher, zu verstehen, wie die einzelnen Scraping-Elemente funktionieren.

Kommst du trotzdem nicht damit klar, kannst du – wie bei Bright Data – gegen eine einmalige Gebühr dein Datenset einfach beim Anbieter anfordern.

Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
ParseHub war mir in Sachen Ersteindruck der sympathischste unter den Scrapern. Das lag vor allem am Hands-on-Tutorial, mit dem ich deutlich schneller als bei anderen Scrapern begriff, warum sich das Tool so verhält, wie es sich verhält. Im Anschluss allerdings einen sauberen Datensatz aus meiner Zielwebsite zu bekommen, der nicht nach Kraut und Rüben aussah, war dann doch schwerer als gedacht. Easy to learn, hard to master.

Kosten

Was du über ParseHub noch wissen solltest: Der Tarif definiert, wie schnell du scrapen kannst; quasi die Web-Scraper-Version von Pay to Win. Free schafft 5 Seiten pro Minute, Standard kommt auf 20 Pages pro Minute und Professional liegt bei 120 Pages pro Minute. Diese Speeds werden auf alle laufenden Projekte aufgeteilt. Also z. B. bei Standard bei 2 Projekten, laufen beide jeweils mit 10 Pages die Minute.

Wie viel die Tarife (und damit die Speeds) im Monatsabo kosten, findest du unten aufgelistet:

Everyone$ 0,00/Monat
Standard$ 189,00/Monat
Professional$ 599,00/Monat
ParseHub PlusAuf Anfrage

Im Test gehört ParseHub zu den teureren Vertretern. Zwar gibt es einen kostenlosen Tarif, der Premium-Einstieg ist mit fast $ 200 aber ziemlich steil. Das macht das Tool für Solo-Arbeitende ziemlich unattraktiv und durch seine großen Preissprünge nicht das beste Tool zum Skalieren.

Vorteile
  • Hands-On-Tutorial
  • Praktische Template-Pages
  • Test-Runs mit Browser-Anzeige
  • Fully managed Datasets verfügbar
Nachteile
  • Probleme mit Elementerfassung
  • Speed von Tarifplan abhängig
ParseHub
3

Octoparse

3.2
1,4
Testnote
Sehr gut
  • No-Code-Plattform Ja
  • Anzahl Proxies K. A.
  • Einfachheit Scraper-Einrichtung 4 / 5
  • Datenqualität 4,5 / 5
  • Export-Formate & Ausgabeziele Tabelle, API, JSON, HTML, TXT, In S3 via Zapier

Octoparse ist für mich der kleine “No-Code”-Bruder von Bright Data. Der Proxy-Pool ist nicht ganz so groß und das wichtige Geotargeting-Feature gibt es nicht. Dafür ist Octoparse deutlich zugänglicher als Bright Data und bekam im Test fast alle Scraping-Aufträge problemlos gelöst. Das macht das Tool zu meinem Zweitplatzierten.

Octoparse – Bester für die Leadgenerierung

Für das automatische Sammeln von Leads ist Octoparse meine Nummer 1. Mit rund 100 vorgefertigten Templates liefert das Tool zwar nicht ganz so viele Vorlagen, wie z. B. Bright Data mit 200 Stück. Dafür ist ein Großteil der Octoparse-Templates auf Marketing-Teams und Lead-Scraping zugeschnitten.

Standard-Aufträge sind z. B. Scraper für die Gelben Seiten, Stepstone, Google Maps oder für Kontaktdaten beliebiger Websites. Wenn du also Leads generieren oder Kontaktdaten für potenzielle Kund:innen ausfindig machen willst, ist Octoparse eine top Anlaufstelle!

Setup & Scraping

Super nützlich für die Leadgenerierung ist auch die RPA Automation von Octoparse. Gemeint sind automatisierte Workflows, mit denen du deine gescrapten Daten automatisch sortieren, bereinigen, mit bestehenden Datensätzen kombinieren/abgleichen oder aus Octoparse in andere Apps transferieren kannst.

Neue Kontaktdaten landen so voll-automatisch in deinem CRM oder dem Marketing Automation Tool deiner Wahl. Echt praktisch!

Schade ist es dann, dass Octoparse kein Geotargeting bietet, mit dem du Daten aus der Sicht von Personen mit unterschiedlichen geografischen Standorten einsehen und scrapen kannst. Das ist gerade für User aus dem Marketing ein echter Verlust. Die werden dann eher bei Tools wie Bright Data, Scrapingbee oder ScraperAPI fündig.

Aber Octoparse ist natürlich nicht nur in der Leadgenerierung stark, sondern hilft dir auch bei scrapen anderer gängigen Daten- und Website-Typen.

Im Gegensatz zum Testsieger ist Octoparse ein No-Code-Tool. Statt deine Scraper selbst zu schreiben, wählst du also deine gewünschten Elemente in einer visuellen Ansicht des Browsers aus. Octoparse selektiert auf Basis deiner Auswahl ähnliche Elemente und packt sie in eine Live-Vorschau deiner Daten. Bist du mit der Auswahl zufrieden, startest du den Run und fertig.

An sich also eine einfache Sache. Für Anfänger:innen kann es aber schnell mal hakelig werden, wenn die Daten in komplexen Seitenstrukturen verborgen liegen und du auf einen sauberen Export abzielst. Du bekommst deine Daten dann schon irgendwie aus der Website; nur nicht zwingend in “hübsch”.

Investierst du aber ein paar Stunden und gönnst dir ein paar der integrierten Tutorials, sind saubere und nützliche Datensätze kein Hexenwerk!

Praktisch für den Einstieg war für mich der eingeblendete Guide in der oberen rechten Ecke, der mir jeweils mögliche nächste Bearbeitungsschritte vorschlug. Das kann gerade bei komplexen Scraping-Jobs helfen, nicht den Faden bei der Einstellung des Scrapers zu verlieren.

Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Das Scrapen an sich hat mit Octoparse tatsächlich sogar Spaß gemacht. Die Live-Vorschau der Daten war sehr hilfreich sowie auch der Guide mit den Handlungsvorschlägen. Das Interface und der “Stuff drumherum” wirkte allerdings ein wenig unaufgeräumter und weniger intuitiv als zum Beispiel Scrapingbee.

Kosten

Anders als bei den API-Scrapern wird hier nicht über Credits abgerechnet. Allerdings bist du durch die Anzahl gleichzeitiger Scraping-Projekte beschränkt. Die Zahl reicht je nach Tarif von 10 bis 750+. Der Einstiegstarif ist dauerhaft für dich kostenlos.

In der Tabelle unten findest du die Monatspreise; allerdings kannst du auch die um 16 % günstigeren Jahresabos nutzen.

Kostenlos$0
Standard-Plan$ 99,00/Monat
Profi-Plan$ 249,00/Monat
Unternehmen-PlanAuf Anfrage

Octoparse ist im Vergleich nicht das teuerste Tool, allerdings ist es für bestimmte Zielgruppen mit seiner Preisaufstellung unattraktiv. Freelancer und kleinere Unternehmen beklagen sich etwa über die großen Preissprünge, die ein Upgrade von Plan zu Plan zu einem übermäßig teuren Upgrade machen.

Vorteile
  • Top-Templates für Lead-Scraping
  • RPA Prozessautomatisierung
  • Scraping-Guide
  • Kostenloser Einstiegstarif
Nachteile
  • Komplexe Oberfläche
  • Kein Geotargeting
Octoparse
3.2
4

Scrapingbee

1,4
Testnote
Sehr gut
  • No-Code-Plattform Nein
  • Anzahl Proxies K. A.
  • Einfachheit Scraper-Einrichtung 4,5 / 5
  • Datenqualität 4,5 / 5
  • Export-Formate & Ausgabeziele Tabelle, API, JSON, HTML, TXT, weitere abhängig von Coding-Skill

Scrapingbee ist dafür gedacht, dir bei der Erstellung eines API-Scrapers zu helfen. Die Oberfläche und Bedienung ist dabei so easy aufbereitet, dass sogar ich als Nicht-Coderin ein Datenset gescrapt bekam. Wer also ein Tool braucht, das flexibler ist, als eine No-Code-Plattform, und mit Code seine ersten Gehversuche macht, ist bei Scrapingbee an der richtigen Adresse.

Scrapingbee versucht also möglichst einfach zu sein, aber die Flexibilität eines API-Scrapers zu behalten. Guter Ansatz; das Tool macht aber beides eben nicht besser als die spezialisierten Tools Bright Data, Octoparse oder Parsehub. Dafür gibt es einen guten vierten Platz.

Scrapingbee – Bester für Anfänger:innen (Code)

Scrapingbee ist eine Web-Scraping-API, die mit unterschiedlichen Coding-Sprachen zurechtkommt. Dabei ist das Tool aber auch für Nicht-Profis erstaunlich zugänglich.

Deine Scrape-Requests baust du in Scrapingbee in einer schicken und übersichtlichen Oberfläche. Abhängig von deinen Coding-Skills packt Scrapingbee auch dynamische Websites mit komplexem Aufbau. Dafür findest du auf der Anbieterwebsite einige praktische Tutorials und eine übersichtliche und verständliche Dokumentation mit Beispiel-Snippets.

Setup & Scraping

Beim Scraping helfen dir unterschiedliche Assistenztools, die fast – aber auch nur fast – so umfangreich ausfallen, wie beim Testsieger Bright Data:

ScrapingbeeBright Data
Proxies
IP-Rotation
Geotargeting
Headless Browser
Captcha-Umgehung
SchedulingNur mit Make-Integration
Integrierter Parser

Was Scrapingbee aber deutlich besser hinbekommt, als der Testsieger, ist die Userführung und das Onboarding. Die Dokumentation ist übersichtlich, bietet praktische Code-Schnippsel, die du direkt anwenden kannst, und verliert sich nicht in einem undurchsichtigen Dschungel aus Fachbegriffen. Zum Einsteigen in die Materie: ideal.

Damit du Scrapingbee nutzen kannst, suchst du dir eine der gebotenen Einstiegstemplates für deinen Scraping-Zweck aus und passt diese mit deinem eigenen Code an. Um den Scraper aufzusetzen, hast die Wahl aus folgenden Coding-Sprachen:

  • Java
  • Python
  • Ruby
  • PHP
  • NodeJS
  • cURL
  • Go
  • C#

Der Komfort der Plattform zieht sich bis in die Coding-Oberfläche, wo Scrapingbee dir ein paar smarte Vorlagen für den Start präsentiert. Die vorgefertigten API-Requests sind nicht super spezifisch (z. B. “Amazon Produktsite scrapen”), decken aber einige häufige Anwendungsfälle ab. Zum Beispiel: “Bilder extrahieren”, oder “Links von einer Website scrapen”. Da es extra eine Vorlage für das Scraping von Mail-Adressen von Seiten gibt, könnte das Ganze zur Leadgewinnung interessant sein. Aber das nur am Rande.

Das spart dir einen Haufen Zeit für dein Setup und du kannst schneller mit dem Scrapen loslegen.

Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Scrapingbee war für mich eine kleine Überraschung. Zwar kann ich ein wenig mit HTML und CSS umgehen, API-Calls coden ist aber weniger mein Ding. Dennoch gelang es mir, dank der verständlichen Oberfläche und mit der anschaulichen Dokumentation schon nach wenigen Anläufen einen Teil meines Scraping-Jobs umzusetzen.

Kosten

Die Kosten von Scrapingbee teilen sich wie folgt auf:

Freelance$49,00/Monat
Startup$99,00/Monat
Business$249,00/Monat
Business+$599,00/Monat

Scrapingbee bewegt sich in Sachen Kosten im Mittelfeld. Du bekommst angepasste Preispakete in unterschiedlichen Höhen, die nicht so große Sprünge machen wie zum Beispiel ParseHub. Das ermöglicht dich finanziell “entspannter” dein Unternehmen mit Scrapingbee zu skalieren.

Sehr schön: Sollte mal eine gecodete Anfrage nicht durchgehen, wird dir das nicht von deinen Credits, die du mit deinem Tarif zugeteilt werden, abgezogen. Das mildert die Fallhöhe für deine ersten Gehversuche mit dem Scraper.

Vorteile
  • Sehr komfortables Code-Interface
  • Ausführliche und klare Doku
  • Voreinstellungen für API-Call
  • Durchweg guter Support
Nachteile
  • Langsamer Scraping-Speed
  • Keine fertigen Templates
Scrapingbee
5

ScraperAPI

4.7
1,5
Testnote
Sehr gut
  • No-Code-Plattform Nein
  • Anzahl Proxies > 124.000 (in Deutschland)
  • Einfachheit Scraper-Einrichtung 3,5 / 5
  • Datenqualität 4,5 / 5
  • Export-Formate & Ausgabeziele Tabelle, API, JSON, HTML, Webhook, weitere abhängig von Coding-Skill

An sich ist ScraperAPI ein gut aufgestelltes Tool. Es glänzt damit, (gegen Aufpreis) auch gut gesicherte Seiten scrapen zu können. Und das für einen Preis der Marke “okay”. Abzüge gibt es wie bei Octoparse für die Einschränkungen beim Geotargeting und der Tatsache, dass der Anbieter laut Kundenberichten häufiger auch nicht erfolgreiche Scrapes in Rechnung stellt.

Daher landet ScraperAPI hier bei mir auf Platz 5.

ScraperAPI – Bester für Coding-Profis

ScraperAPI hat für Coder ein paar wirklich praktische Features an Bord. Das sind etwa die umfassende Dokumentation sowie ein Dashboard, das genaue Analysen der Scraping-Prozesse zulässt. Ideal, um deine Scraper noch besser zu optimieren.

Mit dazu bekommst du eine Testumgebung, in der du kostenlos deine Scraper aufsetzt, ohne wertvolle Credits zu investieren. Nutze also die Testumgebung (“API Playground”), die gut gelungene Dokumentation und das Performance-Dashboard ausgiebig. Falls das nicht reicht, kannst du die kostenlosen Webinare des Anbieters in Anspruch nehmen.

Setup & Scraping

ScraperAPI hat als Kundenbasis vor allem Entwickler:innen und Marktforscher:innen, die schnell und effizient (Markt-) Forschungsdaten aus Websites extrahieren müssen. Dabei helfen Features wie das Geotargeting oder der gut aufgestellte Proxy-Pool, die bei der Erfassung geografisch individuellen Webdaten helfen.

Auch die Templates und übersichtlichen Einstellungsinterfaces sind ein Plus.

Abseits davon gibt es weitere Profifunktionen wie das automatisierte Parsing zur weiteren Datenbearbeitung.

ScraperAPI bleibt seinem Namen treu: Du bekommst hier einen umfangreichen API-Helfer, mit dem du deine eigenen Scraper zusammencodest. Folgende Coding-Sprachen kannst du dafür nutzen:

  • Java
  • Python
  • Ruby
  • PHP
  • NodeJS
  • Bash
  • cURL

Ein Manko ist die Sache mit dem Geotargeting. So können User der zwei kleinsten Premium-Tarife nur die Gebiete USA und Europa wählen. Erst ab dem knapp $ 300 teuren Tarif Business ist eine genaue Landesauswahl möglich.

Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
ScraperAPI ist definitiv auf Profis ausgelegt. Das zeigt sich beispielsweise an der deutlich technischeren Dokumentation, die eben nicht so einsteigerfreundlich ausfällt wie bei Scrapingbee. Wer sich allerdings auskennt, bekommt mit ScraperAPI für einen günstigen Preis alles geboten, was man für ein umfassendes Scraping benötigt.

Kosten

In der unteren Tabelle findest du die Monatspreise für das Tool aufgelistet:

Free$ 0,00/Monat
Hobby$49,00/Monat
Startup$149,00/Monat
Business$299,00/Monat
EnterpriseAuf Anfrage

Alternativ kannst du die Premium-Tarife für 10 % weniger im Jahresabo buchen.

ScraperAPI ist in Sachen Kosten ähnlich teuer wie der Durchschnitt. Damit ist das Tool preislich okay und weder besonders teuer, noch günstig. Was allerdings positiv auffällt: schon im kostenlosen Tarif nutzt du den Proxy-Pool des Anbieters. Das ist bei fast allen anderen Scrapern ein Vorrecht der Premium-User.

Vorteile
  • Umfassende Performance-Analyse
  • Umfangreiche Dokumentation
  • Kostenlose Testumgebung
  • Automatisiertes Parsing
Nachteile
  • Blockierte Requests kosten Geld
  • Eingeschränktes Geotargeting
ScraperAPI
4.7
6

Web Scraper

2
1,5
Testnote
Sehr gut
  • No-Code-Plattform Ja
  • Anzahl Proxies K. A.
  • Einfachheit Scraper-Einrichtung 4,5 / 5
  • Datenqualität 4 / 5
  • Export-Formate & Ausgabeziele Tabelle, API, JSON, BI-Tools, Google Sheets, Google Drive, Dropbox

WebScraper ist in diesem Test mein letzter. Der Grund: Du bekommst hier einen sehr einfachen Web Scraper, den du völlig ohne Code bedienen kannst. Ideal, wenn du nicht als Entwickler:in arbeitest, aber trotzdem z. B. als Marketing- oder E-Commerce-Profi an wichtige Datensätze wie Preisvergleiche und Co. kommen musst. WebScraper ist allerdings lange nicht so mächtig, wie zum Beispiel der Testsieger Bright Data.

Davon abgesehen ist WebScraper mein Preis-Tipp in diesem Vergleich: im teuersten Tarif ab $ 200 scrapst du unbegrenzt viele Daten. Viele andere Anbieter bieten dir das entweder nur für deutlich mehr Geld oder gar nicht. Obendrein gibt es mit der Browser-Extension einen komplett kostenlosen Tarif.

WebScraper – Bester für schnelles Scraping im Browser

Der größte Vorteil bei WebScraper: Du musst dich kein bisschen mit Code beschäftigen und scrapst ohne Probleme Preise für Preisvergleiche, Produktinformationen, Leads und mehr. Und das direkt und bequem über die kostenlose Browser-Erweiterung.

Setup & Scraping

Die Browser-Erweiterung ist in meinen Augen auch das Beste an WebScraper. Du bekommst die Browser Extension für Chrome, Firefox und Edge und installierst sie über den jeweiligen Marktplatz für Browser-add-ons mit wenigen Klicks. Ein Download auf deinen Desktop ist nicht notwendig.

Bist du dann auf deiner Zielwebsite, öffnest du einfach die Entwicklertools und startest deinen Scraping-Bau ‒ ganz ohne Fensterwechsel und Co. Einen schnelleren Start in dein Webscraping bekommst du kaum.

Um den Scraper aufzusetzen, baust du eine Sitemap und wählst verschiedene Selektoren, die gescrapt werden sollen. Kurz: du klickst Elemente an, die du haben willst, die Software markiert alle ähnlichen Elemente für dich vor und du bestätigst die Auswahl.

Nutzt du nicht ausschließlich die kostenlose Browser-Erweiterung, stehen dir zusätzlich nützliche Templates von der Community zur Verfügung.

Die Nutzung und Einrichtung von WebScrpaer ist intuitiv, erfordert aber etwas Einarbeitung, um zu verstehen, wann du wo, welche Inhalte als Element, Text, Link usw. scrapen musst. WebScraper ist zudem nicht ganz so erfolgreich wie etwa Bright Data bei der Umgehung von Anti-Block-Mechanismen. So fehlen etwa Headless Browser oder Captcha-Lösung.

Der große Vorteil von WebScraper: auch Einsteiger:innen können nützliche Datensätze mit WebScraper fabrizieren. Profis haben die Möglichkeit eigene Proxy-Lösungen (“custom proxies”) zu nutzen, mit den richtigen Schritten komplexe Scraper zu bauen und die Daten dann bis zu 60 Tage zu speichern.

Für dein lokales Scraping mit deinen eigenen Geräte-Ressourcen nutzt du die Browsererweiterung. Damit lassen sich einfache Scraping-Aufgaben problemlos erledigen, wie zum Beispiel schnell Produktinformationen von einer Website abrufen.

Wenn du beispielsweise mehrere Seiten gleichzeitig scrapen willst, große Datenmengen auf einmal scrapst, dein Scraping vorplanen möchtest oder Proxy-Server einsetzen musst, dann kommst du nicht um die kostenpflichtigen Pakete herum.

Die bieten dir dann allerdings dank Cloud-Scraping die Möglichkeit, mehrere Jobs gleichzeitig zu erledigen, die Ergebnisse der letzten 30 bis 60 Tage zu speichern und komplizierte Scraping-Aufgaben wie das Scraping dynamischer Websites flotter zu erledigen.

Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Meine Erfahrung mit WebScraper war super angenehm. Ich konnte sofort in die Bedienung einsteigen, dank der Videos und Dokumentation des Anbieters und einiger nützlicher YouTube-Tutorials. So kam ich schnell an die gewünschten Daten und hatte nach nur ein paar Stunden meinen Testdatensatz zusammen. Der war zwar noch nicht perfekt; aber auch das hätte ich mit ein bisschen mehr Zeit und Mühe in den Griff gekriegt!

Kosten

Gut zu wissen: Die Browser-Extension für Chrome, Firefox und Edge ist dauerhaft kostenlos. Nur die Desktop-Anwendungen (und damit der Zugang zur Cloud-Verarbeitung) sind kostenpflichtig.

Achtung: Nutzt du das Cloud-Scraping über die Desktop-App, kostet dich das Credits, die in begrenzter Menge pro Tarif vom Anbieter zur Verfügung gestellt werden.

Bei Bedarf kannst du die Tarife in günstigeren Jahresabos buchen. Die Auflistung hier enthält die Monatspreise:

Browser-Extension$0/Monat
Project$50/Monat
Professional$100/Monat
Business$200/Monat
Scaleab $200/Monat

WebScraper ist der günstigste Anbieter im Test. Wie bereits erwähnt, kannst du mit dem teuersten Tarif unbegrenzt scrapen. Teurer wird es bei Scale dann, wenn du zusätzliche, parallel laufende Scraping-Jobs willst. Willst du etwa statt 2 lieber 3 parallele Prozesse laufen lassen, kostet dich das $ 100 mehr.

Vorteile
  • Besonders schneller Einstieg
  • Sehr günstiger Preis
  • Option für Custom-Proxies
  • Datenspeicherung bis zu 60 Tage
Nachteile
  • Probleme bei komplexen Jobs
  • Keine Captcha-Umgehung
  • Komplexe Dokumentation
Web Scraper
2

Die 6 besten Web Scraping Tools im Vergleich

  1. Bright Data - Bester für blockfreies Scraping
  2. ParseHub - Bester für No-Code-Scraping
  3. Octoparse - Bester für die Leadgenerierung
  4. Scrapingbee - Bester für Coding-Anfänger:innen
  5. ScraperAPI - Bester für Coding-Profis
  6. Web Scraper - Bester für schnelles Scraping im Browser

Vergleichstabelle

Anbieter
Bright Data
ParseHub
Octoparse
Scrapingbee
ScraperAPI
Web Scraper
import.io
Testurteil
sehr gut
1,0
Test
11/2024
sehr gut
1,4
Test
11/2024
sehr gut
1,4
Test
11/2024
sehr gut
1,4
Test
11/2024
sehr gut
1,5
Test
11/2024
sehr gut
1,5
Test
11/2024
Nicht getestet
N/A
Test
N/A
Kundenbewertung
4.6
(763)
3.2
(40)
4.7
(39)
2
(1)
2.9
(19)
Tarif
Preis
0,94 € / Einmalig
Währungsumrechnung
Ursprünglicher Preis1,00 $
Umgerechneter Preis0,94 €
Währungskurs1,00 € ≙ 0,94 $
0,00 €0,00 €46,29 € / monatlich
Währungsumrechnung
Ursprünglicher Preis49,00 $
Umgerechneter Preis46,29 €
Währungskurs1,00 € ≙ 0,94 $
0,00 €0,00 €376,94 € / monatlich
Währungsumrechnung
Ursprünglicher Preis399,00 $
Umgerechneter Preis376,94 €
Währungskurs1,00 € ≙ 0,94 $
Keine Unterschiede vorhanden

Top-Features

No-Code-Plattform
Managed Datasets
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Der Anbieter übernimmt Scraping-Aufträge und übergibt lediglich die fertigen Datensätze an den Auftraggeber
Einrichtung
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Einrichtung meint in diesem Fall den Aufbau bzw. die Programmierung deines Scrapers
nicht getestet
Qualität der Daten
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Ein gute Datenqualität zeichnet sich durch einen vollständigen und sauber strukturierten Aufbau aus.
nicht getestet
Geeignet für
Freelancer/Selbstständige
Kleinstunternehmen
Kleine Unternehmen
Freelancer/Selbstständige
Kleinstunternehmen
Kleine Unternehmen
Freelancer/Selbstständige
Kleinstunternehmen
Kleinstunternehmen
Kleine Unternehmen
Freelancer/Selbstständige
Freelancer/Selbstständige
Kleinstunternehmen
Mittelständische Unternehmen
Große Unternehmen
Keine Unterschiede vorhanden

Vertrag & Kosten

Währung
USD USD USD USD USD USD USD
Zahlungsintervall
Einmalig No No monatlich No No monatlich
Kostenlose Testphase
Dauer kostenlose Testphase
Keine Angaben verfügbar
Keine Angaben verfügbar
Keine Angaben verfügbar
14 Tage
Keine Angaben verfügbar
Dauerhaft kostenlos
Keine Angaben verfügbar
Zahlungsmethoden
Kreditkarte
PayPal
Kreditkarte
Kreditkarte
PayPal
Kreditkarte
Kreditkarte
PayPal
Kreditkarte
Keine Unterschiede vorhanden

Scraping

Dynamische Websites
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Websites, deren inhalte nicht statisch sind (und für alle user gleich aussehen) , sondern bei jedem Abruf in aktualisierter Form neu geladen werden.
JavaScript
HTML
CSS
Keine Unterschiede vorhanden

Setup & Anforderungen

No-Code-Plattform
Java
Python
Ruby
Keine Unterschiede vorhanden

Funktionen & Tools

Proxy
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Ein Server zwischen dir und der Zielseite, der deine IP-Adresse verschleiert
Anzahl Proxies
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Ein Server zwischen dir und der Zielseite, der deine IP-Adresse verschleiert
> 72 Mio.
Keine Angaben verfügbar
Keine Angaben verfügbar
Keine Angaben verfügbar
> 124.000 (in Deutschland)
Keine Angaben verfügbar
Keine Angaben verfügbar
IP-Rotation
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Ein Tool zum regelmäßigen Wechsel deiner IP-Adresse, um Blokierungen durch die Zielwebsite zu verhindern
Geotargeting
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Eine Funktion, um Websites aus der Perspektive einer bestimmten geografischen Region zu betrachten
Keine Unterschiede vorhanden

Ausgabe & Formate

Qualität der Daten
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Ein gute Datenqualität zeichnet sich durch einen vollständigen und sauber strukturierten Aufbau aus.
nicht getestet
Ausgabe als Tabelle
Ausgabe per API
Ausgabe als JSON
Keine Unterschiede vorhanden

Support & Community

Community-Support
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Unterstützung bei Fragen durch ein Community-Forum, User-verwaltetes FAQ usw.
E-Mail-Support
Telefon-Support
Live-Chat
Keine Unterschiede vorhanden

Sicherheit & Datenschutz

Serverstandort(e)
Global USA/Kanada
Keine Angaben verfügbar
Keine Angaben verfügbar
Global
Keine Angaben verfügbar
Keine Angaben verfügbar
Datenverschlüsselung
128-Bit, TLS 1.3 128-Bit, TLS 1.3 256-Bit, TLS 1.3 128-Bit, TLS 1.3 128-Bit, TLS 1.3 128-Bit, TLS 1.2 128-Bit, TLS 1.3
ISO 27001 Zertifikat
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Ein Zertifikat nach ISO 27001 bescheinigt einem Anbieter wichtige Sicheheitsstandards in Sachen "IT-Sicherheit". Es handelt sich um einen deutschen Standard, den nur als sicher identifizierte Produkte erhalten.
SSL-Zertifikate
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Die Verbindung zum Tool erfolgt via SSL-Verschlüsselung. Diese erkennst du (wenn es sich beispielsweise um eine Website handelt) an der URL "https://" im Gegensatz zum früher üblichen "http://".
Keine Unterschiede vorhanden

Allgemeines

Deutsch
Englisch
Spanisch
Französisch
Unterstützte Plattformen
Web-App
Browsererweiterung Chrome
Browsererweiterung Firefox
Browsererweiterung Edge
Web-App
Windows (On-Premise)
MacOS (On-Premise)
Linux (On-Premise)
Web-App
Windows (On-Premise)
MacOS (On-Premise)
Web-App
Web-App
Web-App
Browsererweiterung Chrome
Browsererweiterung Firefox
Browsererweiterung Edge
Windows (On-Premise)
MacOS (On-Premise)
Web-App
Unternehmensname
Bright Data Ltd. Debuggex, Inc. Octopus Data Inc. Vostokinc SAS Scraper API, LLC “Web Graph“ SIA Import.io Ltd.
Unternehmenssitz
Netanya, Israel North York, Kanada Walnut, Kalifornien, USA Paris, Frankreich Las Vegas, USA Adazi, Lettland San Antonio, Texas, USA
Unternehmensgründung
2014 2013 2016 2019 2018 2013 2012
Mitarbeiter
415
Keine Angaben verfügbar
51 bis 200 4 11 bis 50 9 51 bis 100
Keine Unterschiede vorhanden

Welche Web Scraper gibt es noch? 4 Alternativen

Dir haben unsere bisherigen Kandidaten noch nicht zugesagt? Dann habe ich hier noch eine Handvoll Alternativen für dich:

import.io
Import.io richtet sich an große Businesses und Unternehmen. Das zeigt sich an Kunden wie Volvo, Unilever oder Ritz-Carlton. Du bekommst hier ein Code-Tool mit praktischen Werkzeugen ab $ 399 im Monat.
Playwright
Playwright ist eine Node.js-Bibliothek, die von Microsoft entwickelt wurde. Die Einrichtung ist eher was für Profis; das Tool an sich überzeugt aber mit nützlichen Features, wie etwa den intelligenten Element-Selektoren (Locators). Alternativ wird es zum Testen von Webanwendungen genutzt.
Scrapy
Scrapy ist ein Open-Source-Scraper, der von der zugehörigen Community verwaltet wird. Das Code-Tool nutzt Python und läuft auf den Betriebssystemen Linux, Windows, Mac und BSD.
Apify
Die kleinste Version von Apify ist kostenlos; die Premium-Tarife starten bei $ 49 und reichen hin bis zum Custom-Angebot des Enterprise-Tarifs. Eine Besonderheit ist das optionale (kostenpflichtige) Training mit den Apify-Ingenieuren, die dir bei der Erstellung der Scraper helfen.

Wie hat trusted Web Scraper getestet?

In diesem Vergleich habe ich mir alle sechs Kandidaten geschnappt und versucht den gleichen Datensatz von unserer hauseigenen Domain trusted.de zu scrapen. Dabei handelte es sich um die Kategorie Cloud-Speicher, aus der ich Anbieter, Preis und Speicherplatz ziehen wollte.

Ich habe mir im Test angesehen, ob ich zum gewünschten Ergebnis kam, wie schnell mir das gelang und ob die ausgegebenen Datensätze vollständig und sauber aufgelistet waren. Das Zielformat war eine CSV-Tabelle.

Eine genauere Auflistung meiner Testkriterien findest du hier:

Scraping

In diesem Bereich habe ich mir angesehen, was die jeweiligen Scraper erfassen können. Sind sie in der Lage, dynamische Inhalte zu scrapen? Erfassen sie das (komplette) HTML der Seite? Funktioniert die Erfassung von AJAX-Elementen? Welche Elemente sind zusätzlich scrapebar?

Setup & Anforderungen

Dieses Kriterium beschäftigt sich damit, wie der Scraper bedient wird. Handelt es sich um ein No-Code-Tool? Müssen User coden? Welche Programmiersprachen können sie dafür nutzen? Wie komplex fällt das Onboarding aus? Wie einfach ist die Einrichtung der Scraper?

Funktionen & Tools

In diesem Bereich war relevant, was die Kandidaten an Zusatzfunktionen bieten. Kannst du Proxies benutzen? Gibt es eine Funktion für rotierende IP-Adressen oder Geotargeting? Werden Captcha-Umgehungen angeboten? Kann die Anfragenrate angepasst werden? Gibt es die Option für einen Headless Browser? Können Jobs parallel laufen und vorgeplant werden? Gibt es Scraping-Vorlagen? Ist ein Parser verbaut? Wie lange ist die Vorhaltezeit der Daten?

Ausgabe & Formate

Hier habe ich darauf geachtet, in welchen Formaten die Software die Scraping-Ergebnisse ausgeben kann. Neben Tabellen, API-Ausgabe, JSON-Format und Co. habe ich zudem getestet, ob es weitere Ausgabeziele wie z. B. Cloud-Speicher (Dropbox, etc.) gibt.

Support & Community

Hier lag der Fokus auf dem Support-Angebot. Welche Kanäle werden dir geboten (Mail, Live-Chat, Telefon, Community-Forum)? Gibt es eine Dokumentation? Und wie gut ist diese? Kannst du auf offizielle Video-Tutorials des Anbieters zurückgreifen? Bietet der Anbieter die Option, Datensätze für dich zu erstellen? Wie sind die Supportzeiten? Und was denken andere Kund:innen über den Service?

FAQ

Was ist Web Scraping?

Web Scraping bezeichnet einen Vorgang, bei dem du mithilfe von Software den HTML-Code einer Website ausliest, kopierst, speicherst und eventuell sogar wiederverwendest. Diese Technologie wird in verschiedenen Bereichen häufig eingesetzt, wie zum Beispiel im Marketing, im E-Commerce oder im Finanzbereich, wo Websites für Leads, Preisvergleiche oder Börsenkurse ausgelesen werden.

Ist Web Scraping legal?

Das kommt darauf an. Sind die Daten der Öffentlichkeit zugänglich und nicht anderweitig geschützt (z. B. durch das Urheberrecht), dann darfst du die Daten scrapen. So darfst du zum Beispiel öffentlich einsehbare Preise auf einem Online-Marktplatz scrapen; illegal hochgeladene Kundendaten aber nicht - nicht mal, wenn sie öffentlich einsehbar sind. Websites können eine sog. robots.txt-Datei hinterlegen, um darin festzulegen, was Scraper auf der Seite erfassen dürfen und was nicht. Hältst du dich nicht daran, können rechtliche Konsequenzen drohen.

Ist Web Scraping dasselbe wie Web Crawling?

Nein. Zwar erfassen hier Programme zwar in beiden Fällen den HTML-Code einer Website, die Absicht dahinter ist aber eine andere. Crawler erfassen Seiten lediglich, um sie in Suchmaschinen anzeigen zu können. Scraper extrahieren Daten, um sie für bestimmte Zwecke weiterzuverwenden.

Übersicht aller getesteten Web Scraper

Sollten dir meine bisherigen Vorschläge noch nicht den passenden Scraper geliefert haben, dann findest du hier eine Auflistung aller Alternativen, die trusted für dich in Augenschein genommen hat:

1,0
Testnote
Sehr gut
ParseHub
1,4
Testnote
Sehr gut
Octoparse
3.2
1,4
Testnote
Sehr gut
Scrapingbee
1,4
Testnote
Sehr gut
ScraperAPI
4.7
1,5
Testnote
Sehr gut
Web Scraper
2
1,5
Testnote
Sehr gut
import.io
2.9

Änderungshistorie

05.11.2024
Web Scraper - Test

trusted hat den großen Web Scraper-Test mit insgesamt 7 Anbietern durchgeführt und stellt dir die 6 besten Angebote hier übersichtlich vor. Das Ergebnis des Tests: Bright Data landet mit der Testnote 1,1 (“sehr gut”) auf dem ersten Platz.

Julia Warnstaedt
trusted-Expertin für Website & E-Commerce
Julia Warnstaedt
trusted-Expertin für Website & E-Commerce

Julia ist Redakteurin bei trusted.de und Expertin für Websites & E-Commerce. Für diesen Test hat sie ihre Vorerfahrung im Bereich HTML genutzt und Scraper zur Erfassung verschiedener Website-Daten aufgesetzt. Das Ergebnis findest du in diesem Test.

Babbel Bewertungen

4.5
918.106 Bewertungen
davon sind
918.006 Bewertungen
aus 3 anderen Quellen

Bewertungsquellen

203.579 Kunden bewerten auf iTunes durchschnittlich mit 4.6 von 5 Punkten (Stand: 07.03.2022)
203.579 Kunden bewerten auf iTunes durchschnittlich mit 4.6 von 5 Punkten (Stand: 07.03.2022)
203.579 Kunden bewerten auf iTunes durchschnittlich mit 4.6 von 5 Punkten (Stand: 07.03.2022)
trusted