Akademisch und Forschung

Google Scholar Paper und Zitationen erfassen

Akademische Suche in strukturierte Forschungsdaten verwandeln

Literatur entdecken, Zitationsnetzwerke verfolgen oder Forschungsoutput benchmarken. Extrahieren Sie Paper, Zitationen, Publikationsmetadaten und Abstracts für die Analyse.

So funktioniert's

  1. 1 Geben Sie Ihre Suchanfrage oder URL in das Formular ein
  2. 2 Klicken Sie auf Suchen und wir extrahieren die Daten in Sekunden
  3. 3 Ergebnisse online ansehen oder als CSV herunterladen
Kosten: 2 Credits pro Zeile
Format: CSV-Download

400 credits · $0.80

$1.00 min. purchase — unused credits stay in your account

Kostenlos registrieren — 150 Credits zum Ausprobieren

Nur 50 Kredit(e) benötigt — $1.00 Mindestkauf enthält 450 Bonuskredite

Bestellung abschließen

Tool Google Scholar
Zeilen 20
Berichtskosten 50 credits
Sie zahlen $1.00 (Mindestkauf)

450 Bonuskredite werden Ihrem Konto gutgeschrieben

Sichere Zahlung über Stripe
Sicher Sofortige Ergebnisse CSV-Download

Bereits ein Konto? Anmelden

Schon ein Konto? Anmelden

Keine Kreditkarte erforderlich Ergebnisse in Sekunden CSV-Download 2 Credits pro Zeile

Was Sie erhalten

Wir extrahieren strukturierte Daten aus der Quelle und liefern sie als saubere, herunterladbare CSV.

scholar.google.com/scholar?q=transformer architecture deep learning
[PDF]

Attention Is All You Need

A Vaswani, N Shazeer, et al. - NeurIPS, 2017

We propose a new simple network architecture, the Transformer, based solely on attention mechanisms...

★ Save ❝ Cite Cited by 124500 Related
[BOOK]

BERT: Pre-training of Deep Bidirectional Transformers

J Devlin, MW Chang, et al. - NAACL, 2019

We introduce BERT, a new language representation model designed to pre-train deep bidirectional...

★ Save ❝ Cite Cited by 89200 Related

An Image is Worth 16x16 Words: Transformers for Image Recognition

A Dosovitskiy, L Beyer, et al. - ICLR, 2021

We show that a pure transformer applied directly to sequences of image patches can perform...

★ Save ❝ Cite Cited by 34800 Related

Quellseite

Strukturierte CSV
Position
Title
Link
1
Attention Is All You Need
https://arxiv.org/abs/1706.03762
2
BERT: Pre-training of Deep Bidirectional Transformers
https://arxiv.org/abs/1810.04805
3
An Image is Worth 16x16 Words: Transformers for Image Recognition
https://arxiv.org/abs/2010.11929

Saubere, herunterladbare Daten

Vollständige Datenvorschau

Hier sind alle Felder, die Sie bei der Nutzung von Google Scholar erhalten.

Beispielsuche:transformer architecture deep learning
Position Title Link Snippet Publication Info Cited By Count Year Resources
1 Attention Is All You Need https://arxiv.org/abs/1706.03762 We propose a new simple network architecture, the Transformer, based solely on attention mechanisms... A Vaswani, N Shazeer, et al. - NeurIPS, 2017 124500 2017 [PDF] arxiv.org
2 BERT: Pre-training of Deep Bidirectional Transformers https://arxiv.org/abs/1810.04805 We introduce BERT, a new language representation model designed to pre-train deep bidirectional... J Devlin, MW Chang, et al. - NAACL, 2019 89200 2019 [PDF] arxiv.org
3 An Image is Worth 16x16 Words: Transformers for Image Recognition https://arxiv.org/abs/2010.11929 We show that a pure transformer applied directly to sequences of image patches can perform... A Dosovitskiy, L Beyer, et al. - ICLR, 2021 34800 2021 [PDF] openreview.net
Beispieldaten zur Veranschaulichung

Warum ScrapeBase?

Ohne Komplexität. Daten erhalten.

Feature DIY / Raw APIs
ScrapeBase Empfohlen
Setup time
Hours to days
Minutes
Code required
Yes — scripts to maintain
None
Proxies & CAPTCHAs
You handle it
We handle it
Rate limits & retries
You build it
Automatic
Infrastructure
Your servers & keys
Nothing to manage
Data output
Raw — needs parsing
Clean CSV

Anwendungsmöglichkeiten

Automate Literature Reviews

Scrape Google Scholar Ergebnisse for any research topic to build comprehensive literature databases with citation counts and links.

Verfolgen Research Trends

Überwachen which papers and topics gain traction in academia by tracking citation velocity and publication frequency over time.

Build Academic Datasets

Extrahieren structured Daten from thousands of scholarly articles — titles, authors, journals, dates, and citation counts — at scale.

Für Geschwindigkeit und Zuverlässigkeit

Durchschnittliche Antwortzeit unter 10 Sekunden

Strukturierte, saubere Daten zur Analyse

CSV-Export, tabellenbereit

Zuverlässige Infrastruktur, stets verfügbar

Häufig gestellte Fragen

Bereit, Google Scholar zu scrapen?

Starten Sie die Extraktion strukturierter Daten in Sekunden. Kein Coding, keine Proxies, kein Aufwand.

Keine Kreditkarte zur Registrierung erforderlich

Verwandte Tools

Weitere Tools in der Kategorie Google.

Alle Google-Tools ansehen