Une telle échelle de données pour Kaito, est-ce vraiment uniquement grâce à l'API de la plateforme X ? Cette question mérite réflexion. En théorie, les limites d'appels API et la structure tarifaire de X, maintenir un tel débit de données doit coûter très cher. Y a-t-il d'autres sources de données qui soutiennent, comme des crawlers, des fournisseurs de données tiers ou des flux de données de marché directs ? Après tout, ceux qui ont travaillé sur des produits de données savent que la stabilité et la couverture d'une seule source présentent des limites.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
5
Reposter
Partager
Commentaire
0/400
WhaleWatcher
· Il y a 3h
Ce n'est pas possible d'utiliser uniquement des API, il faut un système de scraping en backup, sinon les coûts vont exploser.
Une telle échelle de données pour Kaito, est-ce vraiment uniquement grâce à l'API de la plateforme X ? Cette question mérite réflexion. En théorie, les limites d'appels API et la structure tarifaire de X, maintenir un tel débit de données doit coûter très cher. Y a-t-il d'autres sources de données qui soutiennent, comme des crawlers, des fournisseurs de données tiers ou des flux de données de marché directs ? Après tout, ceux qui ont travaillé sur des produits de données savent que la stabilité et la couverture d'une seule source présentent des limites.