Recherche & extraction
API de recherche sémantique en temps réel et d'extraction de contenu, conçues spécifiquement pour le tool calling LLM et les pipelines RAG. Les réponses pré-formatées ancrent les réponses du LLM avec des informations actuelles issues de tout le web.
Recherche web
Recherche web sémantique en temps réel pour le tool calling LLM. Renvoie titres, URLs et snippets propres classés, pré-formatés pour la consommation par agent. Filtres pays et date pris en charge.
Recherche d'actualités
Recherche d'actualités en temps réel sur les principaux médias. Filtrage par plage de dates et pays pour les requêtes urgentes. Pour les briefings matinaux, agents d'actualités de marché et pipelines RAG.
Extraction de contenu URL
Extrait le contenu propre et lisible de jusqu'à 25 URLs par appel. Supprime publicités, navigation et boilerplate ; renvoie du texte façon markdown prêt pour l'ingestion LLM. 2 crédits par URL.
Recherche académique
Recherche d'articles à comité de lecture et de pre-prints sur arXiv, PubMed, bioRxiv et medRxiv depuis un seul endpoint. Pour la revue de littérature pilotée par IA, le RAG sur corpus scientifiques et l'extraction de citations.
Recherche clinique
Recherche d'essais cliniques, notices FDA, bioactivité ChEMBL et pharmacologie DrugBank. Pour la recherche médicale, le repositionnement de médicaments et l'aide à la décision clinique pilotée par IA.
Recherche dépôts SEC
Recherche de dépôts SEC (10-K, 10-Q, 8-K), transcriptions d'earnings calls américains et statistiques boursières. Pour la due diligence, l'analyse fondamentale et les pipelines RAG financiers pilotés par IA.
Recherche de brevets
Recherche sémantique de brevets mondiaux : USPTO, EPO, OMPI et principaux offices nationaux. Pour la recherche de prior art, l'analyse de paysage de PI et l'intelligence concurrentielle pilotée par IA.
Marchés de prédiction
Recherchez les contrats Polymarket et Kalshi sur la politique, l'économie, le sport et l'actualité. Pour la récupération de prévisions de foule et l'ancrage de probabilités dans les réponses LLM.