La question de la sécurité de l'IA vient de devenir encore plus pressante. Pourquoi se limiter à demander aux LLMs d'écrire du code ? Le vrai défi consiste à leur demander de fournir des preuves vérifiables de leur correction en parallèle. Sans vérification formelle, nous volons essentiellement à l'aveugle avec des systèmes d'IA déployés.



Voici ce qui mérite d'attention : environ 80 % des grands modèles linguistiques — y compris Claude et d'autres — tirent leurs données d'entraînement de Common Crawl. C'est un problème de dépendance aux données massif dont personne ne parle assez.

Mais une solution émergente mérite d'être suivie. Les plateformes de gouvernance basées sur la blockchain, conçues spécifiquement pour la sécurité des modèles IA/ML, commencent à prendre forme. Imaginez des couches de vérification distribuée capables d'assurer cryptographiquement l'intégrité du modèle et la transparence des décisions à grande échelle. C'est le genre de lacune infrastructurelle que l'industrie doit combler.

La convergence de la vérification formelle, de la transparence des modèles et de la supervision décentralisée pourrait réellement transformer notre approche du risque lié au déploiement de l'IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)