Google Scholarの論文と引用を取得
学術検索を構造化されたリサーチデータに変換
文献の発見、引用ネットワークの追跡、研究アウトプットのベンチマークが可能。論文、引用、出版メタデータ、アブストラクトを分析対応フォーマットで取得できます。
使い方
- 1 フォームに検索クエリまたはURLを入力
- 2 検索をクリックすると数秒でデータを抽出
- 3 結果をオンラインで確認またはCSVでダウンロード
取得できるもの
ソースから構造化データを抽出し、ダウンロード可能なきれいなCSVとしてお届けします。
Attention Is All You Need
A Vaswani, N Shazeer, et al. - NeurIPS, 2017
We propose a new simple network architecture, the Transformer, based solely on attention mechanisms...
BERT: Pre-training of Deep Bidirectional Transformers
J Devlin, MW Chang, et al. - NAACL, 2019
We introduce BERT, a new language representation model designed to pre-train deep bidirectional...
An Image is Worth 16x16 Words: Transformers for Image Recognition
A Dosovitskiy, L Beyer, et al. - ICLR, 2021
We show that a pure transformer applied directly to sequences of image patches can perform...
ソースページ
きれいでダウンロード可能なデータ
完全なデータプレビュー
Google Scholarを実行すると取得できるすべてのフィールドをご紹介します。
| Position | Title | Link | Snippet | Publication Info | Cited By Count | Year | Resources |
|---|---|---|---|---|---|---|---|
| 1 | Attention Is All You Need | https://arxiv.org/abs/1706.03762 | We propose a new simple network architecture, the Transformer, based solely on attention mechanisms... | A Vaswani, N Shazeer, et al. - NeurIPS, 2017 | 124500 | 2017 | [PDF] arxiv.org |
| 2 | BERT: Pre-training of Deep Bidirectional Transformers | https://arxiv.org/abs/1810.04805 | We introduce BERT, a new language representation model designed to pre-train deep bidirectional... | J Devlin, MW Chang, et al. - NAACL, 2019 | 89200 | 2019 | [PDF] arxiv.org |
| 3 | An Image is Worth 16x16 Words: Transformers for Image Recognition | https://arxiv.org/abs/2010.11929 | We show that a pure transformer applied directly to sequences of image patches can perform... | A Dosovitskiy, L Beyer, et al. - ICLR, 2021 | 34800 | 2021 | [PDF] openreview.net |
8列
- position — Ranking position in results
- title — Page or item title
- link — URL to the result page
- snippet — Text excerpt from the page
- publication_info — Journal and author details
- cited_by_count — Total citation count
- year — Year of publication
- resources — Links to full text or PDFs
なぜScrapeBase?
複雑さはスキップ。データを取得。
| Feature | DIY / Raw APIs |
ScrapeBase
おすすめ
|
|---|---|---|
| Setup time |
Hours to days
|
Minutes
|
| Code required |
Yes — scripts to maintain
|
None
|
| Proxies & CAPTCHAs |
You handle it
|
We handle it
|
| Rate limits & retries |
You build it
|
Automatic
|
| Infrastructure |
Your servers & keys
|
Nothing to manage
|
| Data output |
Raw — needs parsing
|
Clean CSV
|
できること
Automate Literature Reviews
Scrape Google Scholar 結果 for any research topic to build comprehensive literature databases with citation counts and links.
追跡 Research Trends
監視 which papers and topics gain traction in academia by tracking citation velocity and publication frequency over time.
Build Academic Datasets
抽出 structured データ from thousands of scholarly articles — titles, authors, journals, dates, and citation counts — at scale.
スピードと信頼性のために設計
平均応答時間10秒未満
分析に最適な構造化されたきれいなデータ
CSVエクスポート、スプレッドシート対応
信頼性の高いインフラ、常時利用可能
よくある質問
Google Scholarをスクレイピングする準備はできましたか?
数秒で構造化データの抽出を開始。コーディング不要、プロキシ不要、手間不要。
登録にクレジットカード不要
関連ツール
Googleカテゴリのその他のツール。
Google検索
Googleの自然検索結果、特徴的なスニペット、ナレッジパネル、広告を抽出します。
取得できるもの: Position, Title, Link, Snippet
このツールを使う →
Googleマップ
Googleマップのローカルビジネス一覧、レビュー、地図データを抽出します。
取得できるもの: Position, Title, Address, Phone
このツールを使う →
Google画像
Googleの画像検索結果(サムネイル、ソースリンク、元画像URL)を抽出します。
取得できるもの: Position, Title, Link, Original
このツールを使う →