Veröffentlichungen für jeden Autor erfassen
Vollständiges Publikations- und Zitations-Dataset für einen Wissenschaftler
Autorenprofile erstellen, Forschungseinfluss verfolgen oder Kooperationsnetzwerke abbilden. Extrahieren Sie Veröffentlichungen, Zitationsmetriken und Co-Autoren-Daten in strukturierter Form.
So funktioniert's
- 1 Geben Sie Ihre Suchanfrage oder URL in das Formular ein
- 2 Klicken Sie auf Suchen und wir extrahieren die Daten in Sekunden
- 3 Ergebnisse online ansehen oder als CSV herunterladen
Kostenlos registrieren — 150 Credits zum Ausprobieren
Nur 50 Kredit(e) benötigt — $1.00 Mindestkauf enthält 450 Bonuskredite
Schon ein Konto? Anmelden
Was Sie erhalten
Wir extrahieren strukturierte Daten aus der Quelle und liefern sie als saubere, herunterladbare CSV.
Attention Is All You Need
A Vaswani, N Shazeer, N Parmar, J Uszkoreit — Advances in Neural Information Processing Systems, 2017
BERT: Pre-training of Deep Bidirectional Transformers
J Devlin, MW Chang, K Lee, K Toutanova — NAACL-HLT, 2019
Language Models are Few-Shot Learners
T Brown, B Mann, N Ryder, M Subbiah — Advances in Neural Information Processing Systems, 2020
Quellseite
Saubere, herunterladbare Daten
Vollständige Datenvorschau
Hier sind alle Felder, die Sie bei der Nutzung von Scholar Autor erhalten.
| Title | Link | Citation | Authors | Publication | Cited By | Year |
|---|---|---|---|---|---|---|
| Attention Is All You Need | https://arxiv.org/abs/1706.03762 | abc123def456 | A Vaswani, N Shazeer, N Parmar, J Uszkoreit | Advances in Neural Information Processing Systems, 2017 | 124500 | 2017 |
| BERT: Pre-training of Deep Bidirectional Transformers | https://arxiv.org/abs/1810.04805 | ghi789jkl012 | J Devlin, MW Chang, K Lee, K Toutanova | NAACL-HLT, 2019 | 89200 | 2019 |
| Language Models are Few-Shot Learners | https://arxiv.org/abs/2005.14165 | mno345pqr678 | T Brown, B Mann, N Ryder, M Subbiah | Advances in Neural Information Processing Systems, 2020 | 34800 | 2020 |
7 Spalten
- title — Page or item title
- link — URL to the result page
- citation_id — Unique citation identifier
- authors — List of author names
- publication — Publication or journal name
- cited_by — Number of academic citations
- year — Year of publication
Warum ScrapeBase?
Ohne Komplexität. Daten erhalten.
| Feature | DIY / Raw APIs |
ScrapeBase
Empfohlen
|
|---|---|---|
| Setup time |
Hours to days
|
Minutes
|
| Code required |
Yes — scripts to maintain
|
None
|
| Proxies & CAPTCHAs |
You handle it
|
We handle it
|
| Rate limits & retries |
You build it
|
Automatic
|
| Infrastructure |
Your servers & keys
|
Nothing to manage
|
| Data output |
Raw — needs parsing
|
Clean CSV
|
Anwendungsmöglichkeiten
Verfolgen Author Citation Metrics
Extrahieren h-index, i10-index, total citations, and yearly citation trends for any researcher on Google Scholar.
Analysieren Publication History
Scrape an author's complete publication list with co-authors, venues, and citation counts to map their research trajectory.
Benchmark Researcher Impact
Compare citation metrics across authors in the same field to evaluate academic influence and research productivity.
Für Geschwindigkeit und Zuverlässigkeit
Durchschnittliche Antwortzeit unter 10 Sekunden
Strukturierte, saubere Daten zur Analyse
CSV-Export, tabellenbereit
Zuverlässige Infrastruktur, stets verfügbar
Häufig gestellte Fragen
Bereit, Scholar Autor zu scrapen?
Starten Sie die Extraktion strukturierter Daten in Sekunden. Kein Coding, keine Proxies, kein Aufwand.
Keine Kreditkarte zur Registrierung erforderlich
Verwandte Tools
Weitere Tools in der Kategorie Google.
Google Suche
Organische Suchergebnisse, Featured Snippets, Knowledge Panels und Anzeigen von Google extrahieren.
Sie erhalten: Position, Title, Link, Snippet
Dieses Tool verwenden →
Google Maps
Lokale Unternehmenseinträge, Bewertungen und Kartendaten von Google Maps extrahieren.
Sie erhalten: Position, Title, Address, Phone
Dieses Tool verwenden →
Google Bilder
Bildsuchergebnisse inklusive Miniaturansichten, Quelllinks und Original-URLs von Google extrahieren.
Sie erhalten: Position, Title, Link, Original
Dieses Tool verwenden →