学術・リサーチ

Google Scholarの論文と引用を取得

学術検索を構造化されたリサーチデータに変換

文献の発見、引用ネットワークの追跡、研究アウトプットのベンチマークが可能。論文、引用、出版メタデータ、アブストラクトを分析対応フォーマットで取得できます。

使い方

  1. 1 フォームに検索クエリまたはURLを入力
  2. 2 検索をクリックすると数秒でデータを抽出
  3. 3 結果をオンラインで確認またはCSVでダウンロード
コスト: 1行あたり2クレジット
形式: CSVダウンロード

400 credits · $0.80

$1.00 min. purchase — unused credits stay in your account

無料登録 — 150クレジットでお試し

50クレジットのみ必要 — $1.00の最低購入で450ボーナスクレジット付き

ご注文の完了

ツール Google Scholar
行数 20
レポート費用 50 credits
お支払い額 $1.00 (最低購入)

450ボーナスクレジットがアカウントに追加されます

Stripeによる安全な決済
安全 即時結果 CSVダウンロード

すでにアカウントをお持ちですか?ログイン

アカウントをお持ちですか?ログイン

クレジットカード不要 数秒で結果 CSVダウンロード 1行あたり2クレジット

取得できるもの

ソースから構造化データを抽出し、ダウンロード可能なきれいなCSVとしてお届けします。

scholar.google.com/scholar?q=transformer architecture deep learning
[PDF]

Attention Is All You Need

A Vaswani, N Shazeer, et al. - NeurIPS, 2017

We propose a new simple network architecture, the Transformer, based solely on attention mechanisms...

★ Save ❝ Cite Cited by 124500 Related
[BOOK]

BERT: Pre-training of Deep Bidirectional Transformers

J Devlin, MW Chang, et al. - NAACL, 2019

We introduce BERT, a new language representation model designed to pre-train deep bidirectional...

★ Save ❝ Cite Cited by 89200 Related

An Image is Worth 16x16 Words: Transformers for Image Recognition

A Dosovitskiy, L Beyer, et al. - ICLR, 2021

We show that a pure transformer applied directly to sequences of image patches can perform...

★ Save ❝ Cite Cited by 34800 Related

ソースページ

構造化CSV
Position
Title
Link
1
Attention Is All You Need
https://arxiv.org/abs/1706.03762
2
BERT: Pre-training of Deep Bidirectional Transformers
https://arxiv.org/abs/1810.04805
3
An Image is Worth 16x16 Words: Transformers for Image Recognition
https://arxiv.org/abs/2010.11929

きれいでダウンロード可能なデータ

完全なデータプレビュー

Google Scholarを実行すると取得できるすべてのフィールドをご紹介します。

検索例:transformer architecture deep learning
Position Title Link Snippet Publication Info Cited By Count Year Resources
1 Attention Is All You Need https://arxiv.org/abs/1706.03762 We propose a new simple network architecture, the Transformer, based solely on attention mechanisms... A Vaswani, N Shazeer, et al. - NeurIPS, 2017 124500 2017 [PDF] arxiv.org
2 BERT: Pre-training of Deep Bidirectional Transformers https://arxiv.org/abs/1810.04805 We introduce BERT, a new language representation model designed to pre-train deep bidirectional... J Devlin, MW Chang, et al. - NAACL, 2019 89200 2019 [PDF] arxiv.org
3 An Image is Worth 16x16 Words: Transformers for Image Recognition https://arxiv.org/abs/2010.11929 We show that a pure transformer applied directly to sequences of image patches can perform... A Dosovitskiy, L Beyer, et al. - ICLR, 2021 34800 2021 [PDF] openreview.net
イラスト用のサンプルデータ

なぜScrapeBase?

複雑さはスキップ。データを取得。

Feature DIY / Raw APIs
ScrapeBase おすすめ
Setup time
Hours to days
Minutes
Code required
Yes — scripts to maintain
None
Proxies & CAPTCHAs
You handle it
We handle it
Rate limits & retries
You build it
Automatic
Infrastructure
Your servers & keys
Nothing to manage
Data output
Raw — needs parsing
Clean CSV

できること

Automate Literature Reviews

Scrape Google Scholar 結果 for any research topic to build comprehensive literature databases with citation counts and links.

追跡 Research Trends

監視 which papers and topics gain traction in academia by tracking citation velocity and publication frequency over time.

Build Academic Datasets

抽出 structured データ from thousands of scholarly articles — titles, authors, journals, dates, and citation counts — at scale.

スピードと信頼性のために設計

平均応答時間10秒未満

分析に最適な構造化されたきれいなデータ

CSVエクスポート、スプレッドシート対応

信頼性の高いインフラ、常時利用可能

よくある質問

Google Scholarをスクレイピングする準備はできましたか?

数秒で構造化データの抽出を開始。コーディング不要、プロキシ不要、手間不要。

登録にクレジットカード不要

関連ツール

Googleカテゴリのその他のツール。

すべてのGoogleツールを見る