Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
大家都知道,在金融、医疗、法律等垂直应用领域,采用大型AI模型的最大障碍是"结果的幻觉"问题,这些结果在实际应用场景中无法满足准确性的要求。如何解决这个问题?最近,@Mira_Network 启动了公共测试网络,提供了一套解决方案,所以我来告诉你,事情是这样的:
首先,大型AI模型的工具有 "幻觉 "的情况,这些情况所有人都可能感受到,主要原因有两个:
AI LLM的训练数据不足够全面,尽管数据量已经非常庞大,但仍然无法涵盖一些小众或专业信息,在这种情况下,AI往往会出现"创造性补充",这反过来会导致一些实时错误;
AI LLMs 本质上依赖于 "概率抽样",它涉及到在训练数据中识别统计模式和相关性,而不是实际的 "理解"。因此,概率选择的随机性、学习结果的不一致性和推理可能导致 AI 在处理高精度事实问题时出现错误;
如何解决这个问题?在康奈尔大学的ArXiv平台上发表了一篇文章,描述了几种模型的联合验证方法,以提高LLMs结果的可靠性。
简单的理解是首先允许主模型生成结果,然后结合多个验证模型进行“多数投票分析”,以减少模型中出现的“幻觉”。
在一系列下探中发现,这种方法可以将AI输出的准确性提高到95.6%。
因此,毫无疑问,需要一个分布式平台来验证,以管理和核实主模型与验证模型之间的合作过程。Mira Network 是这样一个中介网络,专门为 AI LLMs 的验证而创建,它在用户与基础 AI 模型之间建立了可靠的验证层。
由于这一网络的存在,验证级别可以实现集成服务,包括隐私保护、确保准确性、可扩展设计、标准化API接口及其他集成服务,同时在不同的细分应用场景中,AI的植入能力可以通过降低AI LLM的输出幻觉来扩展,这也是在通过加密验证的分布式网络实施AI LLM项目过程中的一种实践。
例如,Mira Network 分享了几个区块链在金融、教育和环境领域的案例,以证明:
在Gigabrain交易平台上集成Mira后,系统可以增加一个验证市场分析和预测准确性的层级,通过过滤不可靠的提议,从而提高AI交易信号的准确性,使AI LLMs在DeFi场景中的应用更加可靠。
Learnrite 使用 mira 来验证由人工智能生成的标准化测试题,使教育机构能够在不损害教育测试内容的准确性的情况下,以规模使用人工智能创建的内容,以支持严格的教育标准;
Kernel 区块链项目利用 Mira 的 LLM 共识机制,将其集成到 BNB 生态系统中,创建一个去中心化的 DVN 验证网络,为在区块链上执行 AI 计算提供一定程度的准确性和安全性。