Académique et Recherche

Extrayez les articles et citations Google Scholar

Transformez la recherche académique en données structurées

Découvrez la littérature, suivez les réseaux de citation ou mesurez la production scientifique. Extrayez articles, citations, métadonnées et résumés prêts à l'analyse.

Comment ça marche

  1. 1 Saisissez votre requête de recherche ou URL dans le formulaire
  2. 2 Cliquez sur rechercher et nous extrairons les données en quelques secondes
  3. 3 Consultez les résultats en ligne ou téléchargez en CSV
Coût : 2 crédits par ligne
Format : Téléchargement CSV

400 credits · $0.80

$1.00 min. purchase — unused credits stay in your account

Inscription gratuite — 150 crédits pour essayer

Seulement 50 crédit(s) nécessaire(s) — achat min. de $1.00 inclut 450 crédits bonus

Finalisez Votre Commande

Outil Google Scholar
Lignes 20
Coût du rapport 50 credits
Vous payez $1.00 (achat min.)

450 crédits bonus seront ajoutés à votre compte

Paiement sécurisé par Stripe
Sécurisé Résultats instantanés Téléchargement CSV

Vous avez déjà un compte ? Connectez-vous

Déjà un compte ? Se connecter

Aucune carte bancaire requise Résultats en quelques secondes Téléchargement CSV 2 crédits par ligne

Ce Que Vous Obtenez

Nous extrayons des données structurées de la source et les livrons en fichier CSV propre et téléchargeable.

scholar.google.com/scholar?q=transformer architecture deep learning
[PDF]

Attention Is All You Need

A Vaswani, N Shazeer, et al. - NeurIPS, 2017

We propose a new simple network architecture, the Transformer, based solely on attention mechanisms...

★ Save ❝ Cite Cited by 124500 Related
[BOOK]

BERT: Pre-training of Deep Bidirectional Transformers

J Devlin, MW Chang, et al. - NAACL, 2019

We introduce BERT, a new language representation model designed to pre-train deep bidirectional...

★ Save ❝ Cite Cited by 89200 Related

An Image is Worth 16x16 Words: Transformers for Image Recognition

A Dosovitskiy, L Beyer, et al. - ICLR, 2021

We show that a pure transformer applied directly to sequences of image patches can perform...

★ Save ❝ Cite Cited by 34800 Related

Page source

CSV structuré
Position
Title
Link
1
Attention Is All You Need
https://arxiv.org/abs/1706.03762
2
BERT: Pre-training of Deep Bidirectional Transformers
https://arxiv.org/abs/1810.04805
3
An Image is Worth 16x16 Words: Transformers for Image Recognition
https://arxiv.org/abs/2010.11929

Données propres et téléchargeables

Aperçu Complet des Données

Tous les champs que vous obtiendrez en exécutant Google Scholar.

Exemple de recherche :transformer architecture deep learning
Position Title Link Snippet Publication Info Cited By Count Year Resources
1 Attention Is All You Need https://arxiv.org/abs/1706.03762 We propose a new simple network architecture, the Transformer, based solely on attention mechanisms... A Vaswani, N Shazeer, et al. - NeurIPS, 2017 124500 2017 [PDF] arxiv.org
2 BERT: Pre-training of Deep Bidirectional Transformers https://arxiv.org/abs/1810.04805 We introduce BERT, a new language representation model designed to pre-train deep bidirectional... J Devlin, MW Chang, et al. - NAACL, 2019 89200 2019 [PDF] arxiv.org
3 An Image is Worth 16x16 Words: Transformers for Image Recognition https://arxiv.org/abs/2010.11929 We show that a pure transformer applied directly to sequences of image patches can perform... A Dosovitskiy, L Beyer, et al. - ICLR, 2021 34800 2021 [PDF] openreview.net
Données d'exemple à titre illustratif

Pourquoi ScrapeBase ?

Passez le cap de la complexité. Obtenez vos données.

Feature DIY / Raw APIs
ScrapeBase Recommandé
Setup time
Hours to days
Minutes
Code required
Yes — scripts to maintain
None
Proxies & CAPTCHAs
You handle it
We handle it
Rate limits & retries
You build it
Automatic
Infrastructure
Your servers & keys
Nothing to manage
Data output
Raw — needs parsing
Clean CSV

Ce Que Vous Pouvez Faire

Automate Literature Reviews

Scrape Google Scholar résultats for any research topic to build comprehensive literature databases with citation counts and links.

Suivre Research Trends

Surveiller which papers and topics gain traction in academia by tracking citation velocity and publication frequency over time.

Build Academic Datasets

Extraire structured données from thousands of scholarly articles — titles, authors, journals, dates, and citation counts — at scale.

Conçu pour la Vitesse et la Fiabilité

Temps de réponse moyen sous 10 secondes

Données structurées et propres, prêtes pour l'analyse

Export CSV, prêt pour tableur

Infrastructure fiable, toujours disponible

Questions Fréquentes

Prêt à scraper Google Scholar ?

Commencez à extraire des données structurées en quelques secondes. Pas de code, pas de proxies, pas de tracas.

Aucune carte bancaire requise pour s'inscrire

Outils Associés

Plus d'outils dans la catégorie Google.

Voir tous les outils Google