00:21链上身份系统Phi将于10月10日在Base网络发币BlockBeats 消息,10 月 1 日,据官方消息,链上身份系统 Phi 将于 10 月 10 日在 Base 网络通过 Aerodrome 发币。根据代币经济学,PHI 总量 10 亿枚,9.2% 将用于追溯性空投。首次追溯空投计划分配总量 9.2% 中的 3.2%。快照尚未进行,计划于下周,即 TGE 之前进行。2
22:12微软开源新版Phi-4:推理效率暴涨10倍,笔记本可运行金十数据7月10日讯,今天凌晨,微软在官网开源了Phi-4家族的最新版本Phi-4-mini-flash-reasoning。mini-flash版延续了Phi-4家族参数小性能强的特点,是专门针对那些受算力、内存和延迟限制场景设计的,单个GPU可运行,适合笔记本、平板电脑等边缘设备。与前一个版本相比,mini-flash使用了微软自研的创新架构SambaY,推理效率暴涨了10倍,延迟平均降低了2—3倍,整体推理性能实现了大幅度提升。
23:54链上身份项目Phi完成新一轮战略种子轮融资,Neoclassic Capital领投链上身份项目 Phi 完成战略种子轮融资,新融资将用于构建专用于链上身份的去中心化认证系统。Phi Land是首款产品,能够可视化 ENS 上的链上活动。通过与其他链生态、协议、创作者、品牌和社区的合作,团队正致力于创造更多独特而有趣的体验。团队为用户和创作者改进了 phi.box,并正在构建一款新应用程序,以供用户展示链上身份。展开CYBER-10.17%ENS-9.85%
17:46链上身份认证系统Phi Protocol已完成新一轮战略种子轮融资Phi Protocol完成新一轮种子轮融资,旨在建立链上身份的去中心化认证系统。Neoclassic Capital领投,得到Marc Andreessen和Chris Dixon等人的支持,Decima Fund、Cyber、PAKA fund和Incubate Fund也参与。这是Phi Protocol继2022年之后的第二轮融资。展开X-7.57%CYBER-10.17%
01:04据 AIGC 开放社区报道,微软宣布在 Azure AI 云开发平台中新增了 Falcon、Phi、Jais、Code Llama、CLIP、Whisper V3、Stable Diffusion 等 40 个新模型,涵盖文本、图像、代码、语音等内容生成。 开发人员只需要通过 API 或 SDK 就能快速将模型集成在应用程序中,同时支持数据微调、指令优化等量身定制功能。此外,开发人员可通过关键字搜索,在 Azure AI 的“模型超市”中迅速找到适合自己的产品,例如,输入“代码”两字,就能显示相应的模型。
05:32据 IT 之家 11 月 17 日消息,微软在 Ignite 2023 大会上发布了旗下最小的语言模型 Phi-2,共有 27 亿参数,相比较此前版本有明显提升。Microsoft Research 机器学习基础小组负责人 Sebastien Bubeck 在 Twitter 上发布了“MT-Bench”基准测试的屏幕截图,该基准测试了具有强大语言模型(例如 GPT-4)的大型和小型语言模型的实际功能。根据结果,Phi-2 在某些方面优于 Meta 的 Llama-2-7 B 模型。 据悉,微软于今年 6 月发布 Phi-1,只有 13 亿参数,适用于 QA 问答、聊天格式和代码等等场景。9 月,微软更新发布了 Phi-1.5 版本,同样为 13 亿参数,可以写诗、写电子邮件和故事,以及总结文本。1
13:18Odaily星球日报讯 Phi Labs开发Archway协议上线Cosmos生态主网,25%代币分配给应用开发者,75%分配给验证者。 据此前报道,Phi Labs开发的Archway协议是一个基于Cosmos并奖励开发者的激励性智能合约平台,该协议为开发人员提供了快速构建和启动可扩展的跨链DApp的工具,并因DApp对网络的贡献而获得奖励。(THE BLOCK)
01:35IT 之家今日发文表示,AI 模型盲堆体积实际上效果并不见得更好,更多要看训练数据的质量,微软日前最近发布了一款 13 亿参数的语言模型 phi-1,采用“教科书等级”的高品质资料集训练而成,据称“实际效果胜于千亿参数的 GPT 3.5”。该模型以 Transformer 架构为基础,微软团队使用了包括来自网络的“教科书等级”数据和以 GPT-3.5 经过处理的“逻辑严密的内容”,以及 8 个英伟达 A100 GPU,在短短 4 天内完成训练。 微软团队表示,比起增加模型的参数量,通过提高模型的训练数据集质量,也许更能强化模型的准确率和效率,于是,他们利用高质量数据训练出了 phi-1 模型。在测试中,phi-1 的分数达到 50.6%,比起 1750 亿参数的 GPT-3.5(47%)还要好。微软还表示,phi-1 接下来会在 HuggingFace 中开源,而这不是微软第一次开发小型 LLM,此前,他们打造一款 130 亿参数的 Orca,使用了 GPT-4 合成的数据训练而成,表现也同样比 ChatGPT 更好。