💥 Gate 广场活动:#发帖赢代币CGN 💥
在 Gate 广场发布与 CGN、Launchpool 或 CandyDrop 相关的原创内容,即有机会瓜分 1,333 枚 CGN 奖励!
📅 活动时间:2025年10月24日 18:00 – 11月4日 24:00(UTC+8)
📌 相关详情:
Launchpool 👉 https://www.gate.com/zh/announcements/article/47771
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47763
📌 参与方式:
1️⃣ 在 Gate 广场发布原创内容,主题需与 CGN 或相关活动(Launchpool / CandyDrop)相关;
2️⃣ 内容不少于 80 字;
3️⃣ 帖子添加话题:#发帖赢代币CGN
4️⃣ 附上任意活动参与截图
🏆 奖励设置(总奖池:1,333 CGN)
🥇 一等奖(1名):333 CGN
🥈 二等奖(2名):200 CGN / 人
🥉 三等奖(6名):100 CGN / 人
📄 注意事项:
内容必须原创,禁止抄袭;
获奖者需完成 Gate 广场身份认证;
活动最终解释权归 Gate 所有。
字节跳动与浙大联合推多模态大语言模型 Vista-LLaMA,可解读视频内容
巴比特讯 字节跳动与浙江大学合作推出了多模态大语言模型 Vista-LLaMA,该模型专为视频内容理解而设计,能够输出高质量视频描述。通过创新的视觉与语言 token 处理方式,Vista-LLaMA 解决了在视频内容中出现“幻觉”现象的问题。
Vista-LLaMA 在多个开放式视频问答基准测试中表现卓越,尤其在 NExT-QA 和 MSRVTT-QA 测试中取得了突破性成绩。其在零样本 NExT-QA 测试中实现了 60.7% 的准确率,在 MSRVTT-QA 测试中达到了 60.5% 的准确率,超过了目前所有的 SOTA 方法。这些结果证明了 Vista-LLaMA 在视频内容理解和描述生成方面的高效性和精准性。