学術・リサーチ

任意の著者の出版物を取得

1人の研究者の出版物と引用データセットを丸ごと取得

著者プロフィールの構築、研究インパクトの追跡、共同研究ネットワークの把握が可能。出版物、引用メトリクス、共著者データを構造化フォーマットで抽出できます。

使い方

  1. 1 フォームに検索クエリまたはURLを入力
  2. 2 検索をクリックすると数秒でデータを抽出
  3. 3 結果をオンラインで確認またはCSVでダウンロード
コスト: 1回の検索あたり50クレジット
形式: CSVダウンロード

この検索は1件のデータレコードを返します。

コスト: 50 クレジット ($0.10)

無料登録 — 150クレジットでお試し

50クレジットのみ必要 — $1.00の最低購入で450ボーナスクレジット付き

ご注文の完了

ツール Scholar著者
行数 1
レポート費用 50 credits
お支払い額 $1.00 (最低購入)

450ボーナスクレジットがアカウントに追加されます

Stripeによる安全な決済
安全 即時結果 CSVダウンロード

すでにアカウントをお持ちですか?ログイン

アカウントをお持ちですか?ログイン

クレジットカード不要 数秒で結果 CSVダウンロード 1回の検索あたり50クレジット

取得できるもの

ソースから構造化データを抽出し、ダウンロード可能なきれいなCSVとしてお届けします。

scholar.google.com/citations?user=EmD_lTEAAAAJ

Attention Is All You Need

A Vaswani, N Shazeer, N Parmar, J Uszkoreit — Advances in Neural Information Processing Systems, 2017

Cited by 124500 2017

BERT: Pre-training of Deep Bidirectional Transformers

J Devlin, MW Chang, K Lee, K Toutanova — NAACL-HLT, 2019

Cited by 89200 2019

Language Models are Few-Shot Learners

T Brown, B Mann, N Ryder, M Subbiah — Advances in Neural Information Processing Systems, 2020

Cited by 34800 2020

ソースページ

構造化CSV
Title
Link
Citation
Attention Is All You Need
https://arxiv.org/abs/1706.03762
abc123def456
BERT: Pre-training of Deep Bidirectional Transformers
https://arxiv.org/abs/1810.04805
ghi789jkl012
Language Models are Few-Shot Learners
https://arxiv.org/abs/2005.14165
mno345pqr678

きれいでダウンロード可能なデータ

完全なデータプレビュー

Scholar著者を実行すると取得できるすべてのフィールドをご紹介します。

検索例:user=EmD_lTEAAAAJ
Title Link Citation Authors Publication Cited By Year
Attention Is All You Need https://arxiv.org/abs/1706.03762 abc123def456 A Vaswani, N Shazeer, N Parmar, J Uszkoreit Advances in Neural Information Processing Systems, 2017 124500 2017
BERT: Pre-training of Deep Bidirectional Transformers https://arxiv.org/abs/1810.04805 ghi789jkl012 J Devlin, MW Chang, K Lee, K Toutanova NAACL-HLT, 2019 89200 2019
Language Models are Few-Shot Learners https://arxiv.org/abs/2005.14165 mno345pqr678 T Brown, B Mann, N Ryder, M Subbiah Advances in Neural Information Processing Systems, 2020 34800 2020
イラスト用のサンプルデータ

なぜScrapeBase?

複雑さはスキップ。データを取得。

Feature DIY / Raw APIs
ScrapeBase おすすめ
Setup time
Hours to days
Minutes
Code required
Yes — scripts to maintain
None
Proxies & CAPTCHAs
You handle it
We handle it
Rate limits & retries
You build it
Automatic
Infrastructure
Your servers & keys
Nothing to manage
Data output
Raw — needs parsing
Clean CSV

できること

追跡 Author Citation Metrics

抽出 h-index, i10-index, total citations, and yearly citation trends for any researcher on Google Scholar.

分析 Publication History

Scrape an author's complete publication list with co-authors, venues, and citation counts to map their research trajectory.

Benchmark Researcher Impact

Compare citation metrics across authors in the same field to evaluate academic influence and research productivity.

スピードと信頼性のために設計

平均応答時間10秒未満

分析に最適な構造化されたきれいなデータ

CSVエクスポート、スプレッドシート対応

信頼性の高いインフラ、常時利用可能

よくある質問

Scholar著者をスクレイピングする準備はできましたか?

数秒で構造化データの抽出を開始。コーディング不要、プロキシ不要、手間不要。

登録にクレジットカード不要

関連ツール

Googleカテゴリのその他のツール。

すべてのGoogleツールを見る