Récemment, j'ai réalisé une petite expérience avec un outil de données Web3. J'ai importé des informations extraites de plusieurs sources de données blockchain dans Claude, pour qu'il génère directement des graphiques visuels.
Le processus est le suivant : d'abord, extraire des données de transaction depuis DexScreener et d'autres plateformes d'agrégation de données DEX, puis les organiser en format structuré à l'aide d'un outil de scraping, enfin confier le tout à l'IA pour qu'elle génère automatiquement des graphiques.
Le résultat est plutôt satisfaisant. Cette méthode est particulièrement adaptée pour analyser rapidement les tendances sur la blockchain, suivre l'évolution de la liquidité ou comparer la performance de différents paires de trading. Cela permet de gagner beaucoup de temps par rapport au traitement manuel des données.
Les amis qui ont des idées peuvent essayer, cette approche est très utile pour la recherche Web3 basée sur les données.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
9
Reposter
Partager
Commentaire
0/400
StopLossMaster
· Il y a 15h
Haha, cette combinaison est vraiment pratique, faire faire le travail à Claude est beaucoup plus rapide que de se fatiguer soi-même avec les données.
Mais, la stabilité du crawler, la latence des données en chaîne, cela affecte-t-il la prise de décision ?
Cette idée aurait dû être organisée depuis longtemps, cela évite beaucoup d'efforts inutiles.
La précision des images générées par Claude est correcte, mais parfois il a tendance à interpréter excessivement le bruit dans les données.
Attends, tu veux dire une automatisation complète du crawling à la génération d'images ? Ça me paraît un peu trop idéaliste, haha.
Cette vague est vraiment une libération pour les chercheurs de données, ils n'auront plus besoin de manipuler manuellement Excel à l'avenir.
Je voulais savoir si le problème de qualité des données en chaîne a été résolu, car si des données basura entrent dans le graphique, ce sera toujours du basura.
Voir l'originalRépondre0
GateUser-e19e9c10
· Il y a 18h
Dépêche-toi d'essayer, cette astuce peut vraiment faire gagner du temps
Voir l'originalRépondre0
SandwichTrader
· 01-10 01:26
Putain, cette idée est géniale, je dois l'essayer rapidement
Voir l'originalRépondre0
PseudoIntellectual
· 01-09 16:56
Putain, cette idée est géniale, elle permet de gagner du temps tout en assurant la précision des données
Voir l'originalRépondre0
CountdownToBroke
· 01-09 03:50
艺 Claude 生成图表?Cette idée est pas mal, ça fait gagner du temps
Voir l'originalRépondre0
just_vibin_onchain
· 01-09 03:46
Cette combinaison est vraiment efficace, elle fait gagner beaucoup de temps.
Comment as-tu réglé l'étape de sortie d'image avec Claude ? Le résultat est-il stable ?
Attends, la partie du crawler ne risque-t-elle pas d'être limitée en fréquence ?
Je veux vraiment essayer, mais j'ai peur que ce soit compliqué.
Cette idée est géniale, elle évite beaucoup de travail répétitif.
Mais la précision des données, elle est comment ? Y a-t-il des déviations ?
Voir l'originalRépondre0
BloodInStreets
· 01-09 03:39
Encore une série d'astuces d'outils automatisés, cette fois plus besoin de réfléchir même en regardant les graphiques.
Voir l'originalRépondre0
ConsensusBot
· 01-09 03:27
Mince alors, cette approche est vraiment géniale, elle permet de gagner du temps tout en étant précise
La combinaison Claude avec le crawler, on dirait qu'une nouvelle façon de faire s'ouvre
Quelle est la qualité des données de DexScreener, est-ce stable et fiable ?
Si on fait ça à grande échelle, l'efficacité pourrait augmenter de plusieurs fois
D'accord, d'accord, je vais aussi essayer ce processus la prochaine fois
Voir l'originalRépondre0
GasFeeGazer
· 01-09 03:27
Haha, cette approche pour faire le show a quand même du potentiel, ça fait gagner du temps
Claude pour la génération d'images est vraiment efficace, il faut juste bien contrôler la qualité des sources de données
Je dois aussi essayer, peut-être que je pourrai trouver des opportunités d'arbitrage
De nos jours, ne pas utiliser l'IA pour exploiter les données on-chain, c'est un peu dépassé
Récemment, j'ai réalisé une petite expérience avec un outil de données Web3. J'ai importé des informations extraites de plusieurs sources de données blockchain dans Claude, pour qu'il génère directement des graphiques visuels.
Le processus est le suivant : d'abord, extraire des données de transaction depuis DexScreener et d'autres plateformes d'agrégation de données DEX, puis les organiser en format structuré à l'aide d'un outil de scraping, enfin confier le tout à l'IA pour qu'elle génère automatiquement des graphiques.
Le résultat est plutôt satisfaisant. Cette méthode est particulièrement adaptée pour analyser rapidement les tendances sur la blockchain, suivre l'évolution de la liquidité ou comparer la performance de différents paires de trading. Cela permet de gagner beaucoup de temps par rapport au traitement manuel des données.
Les amis qui ont des idées peuvent essayer, cette approche est très utile pour la recherche Web3 basée sur les données.