Les données d'entraînement AI l'année dernière n'ont pas été autant sujettes à la controverse sur le manque de matériel, mais plutôt sur le fait qu'une fois utilisées, il était impossible de prouver leur origine — dès que le modèle était lancé, il était accusé de "violation de droits sur les données". Le module Seal récemment lancé par l'écosystème Walrus propose une nouvelle approche : lors du téléchargement de fichiers, ils sont d'abord découpés en plusieurs centaines de fragments à l'aide d'un code de correction d'erreurs, puis l'accès est directement inscrit dans un objet sur la chaîne Sui via une clé à seuil. Le service d'inférence ne peut accéder qu'aux fragments autorisés dans un environnement isolé, le fichier original restant totalement inaccessible. Ainsi, la provenance de l'entraînement du modèle peut être légalement justifiée, la communauté peut également la vérifier, et il est impossible de rejeter la responsabilité.
Par rapport à d'autres solutions — comme un stockage principal qui ne fournit que le hash du contenu, ou une plateforme principale utilisant un stockage permanent public en "vente à la pièce" — cette méthode Seal combine la protection de la vie privée, la suppression contrôlée, et l'intégrité contre la falsification, trois besoins qui semblaient contradictoires.
Les inconvénients sont également évidents : le coût de rotation des clés n'est pas négligeable. Si l'on doit changer la clé de 200 Go de données en une seule fois, il faut d'abord déverrouiller l'ancienne clé, puis autoriser la nouvelle, ce qui rend le processus plus complexe que les solutions classiques, surtout en cas de pression pour respecter une date limite de projet, ce qui peut donner des maux de tête à l'équipe de développement. Cependant, des scripts modèles existent déjà dans la communauté, et leur intégration dans le processus CI/CD devrait permettre d'optimiser cela considérablement.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
22 J'aime
Récompense
22
10
Reposter
Partager
Commentaire
0/400
MEVHunterWang
· Il y a 20h
Vraiment impressionnant, enfin quelqu'un a réussi à rassembler ces trois besoins qui se confrontent.
Voir l'originalRépondre0
SchrodingerWallet
· 01-11 18:35
Haha, cette astuce est vraiment efficace, enfin quelqu'un a bloqué la pratique de "passer la responsabilité"
Voir l'originalRépondre0
FlashLoanLarry
· 01-09 11:54
Ce module Seal est vraiment puissant, la technique de découpage avec le code de correction d'erreurs empêche complètement la source de pouvoir rejeter la faute.
Voir l'originalRépondre0
BloodInStreets
· 01-09 11:52
Hé, enfin quelqu'un a mis de l'ordre dans ce chaos, les solutions précédentes étaient vraiment une blague
Voir l'originalRépondre0
SlowLearnerWang
· 01-09 11:36
Oh là là, encore quelque chose que j'aurais dû suivre depuis longtemps mais que je ne comprenais que maintenant... La technique de découpage par code de correction d'erreurs est vraiment géniale, enfin quelqu'un a clarifié la question du "je n'ai pas enfreint de droits" de manière limpide.
Voir l'originalRépondre0
WhaleShadow
· 01-09 11:34
Cette fois, le service juridique ne pourra vraiment pas trouver d'excuse pour rejeter la faute, mais il faut absolument changer la clé avant la date limite, sinon ça va mal finir.
Voir l'originalRépondre0
OldLeekConfession
· 01-09 11:34
Putain, c'est ça la véritable preuve sur la chaîne, enfin quelqu'un a compris comment faire la traçabilité des données
Voir l'originalRépondre0
MetaverseVagabond
· 01-09 11:27
Bon sang, enfin quelqu'un a mis de l'ordre dans ce chaos, la combinaison de codes de correction d'erreurs + clés à seuil est vraiment redoutable
Les données d'entraînement AI l'année dernière n'ont pas été autant sujettes à la controverse sur le manque de matériel, mais plutôt sur le fait qu'une fois utilisées, il était impossible de prouver leur origine — dès que le modèle était lancé, il était accusé de "violation de droits sur les données". Le module Seal récemment lancé par l'écosystème Walrus propose une nouvelle approche : lors du téléchargement de fichiers, ils sont d'abord découpés en plusieurs centaines de fragments à l'aide d'un code de correction d'erreurs, puis l'accès est directement inscrit dans un objet sur la chaîne Sui via une clé à seuil. Le service d'inférence ne peut accéder qu'aux fragments autorisés dans un environnement isolé, le fichier original restant totalement inaccessible. Ainsi, la provenance de l'entraînement du modèle peut être légalement justifiée, la communauté peut également la vérifier, et il est impossible de rejeter la responsabilité.
Par rapport à d'autres solutions — comme un stockage principal qui ne fournit que le hash du contenu, ou une plateforme principale utilisant un stockage permanent public en "vente à la pièce" — cette méthode Seal combine la protection de la vie privée, la suppression contrôlée, et l'intégrité contre la falsification, trois besoins qui semblaient contradictoires.
Les inconvénients sont également évidents : le coût de rotation des clés n'est pas négligeable. Si l'on doit changer la clé de 200 Go de données en une seule fois, il faut d'abord déverrouiller l'ancienne clé, puis autoriser la nouvelle, ce qui rend le processus plus complexe que les solutions classiques, surtout en cas de pression pour respecter une date limite de projet, ce qui peut donner des maux de tête à l'équipe de développement. Cependant, des scripts modèles existent déjà dans la communauté, et leur intégration dans le processus CI/CD devrait permettre d'optimiser cela considérablement.