Gate 广场「创作者认证激励计划」优质创作者持续招募中!
立即加入,发布优质内容,参与活动即可瓜分月度 $10,000+ 创作奖励!
认证申请步骤:
1️⃣ 打开 App 首页底部【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】,提交申请等待审核
立即报名:https://www.gate.com/questionnaire/7159
豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000 丰厚奖励等你拿!
活动详情:https://www.gate.com/announcements/article/47889
ARTIFICIAL INTELLIGENCE | Opera Browser Integrates Major AI Models for Local Download and Offline Use
领先的浏览器公司Opera表示,它正在其Opera One浏览器的开发者版本中添加对150个本地大型语言模型(LLM)变体的实验性支持,这些模型来自大约50个模型家族。
这些LLMs,例如由OpenAI开发的GPT(生成预训练变换器)模型,是先进的人工智能系统,经过大量文本数据训练,能够理解和生成类似人类的文本。它们被广泛应用于各种自然语言处理任务,包括文本生成、翻译、摘要等。
据Opera介绍,这是首次可以通过内置功能,轻松访问和管理本地LLMs。本地AI模型是Opera的在线Aria AI服务的补充。支持的本地LLMs包括:
“以这种方式引入本地LLMs,使Opera能够开始探索在快速崛起的本地AI领域内构建体验和积累知识的方法,” Opera的浏览器与游戏事业部执行副总裁Krystian Kolondra表示。
Opera还表示,使用本地大型语言模型意味着用户的数据会保存在设备本地,允许他们在不需要将信息发送到服务器的情况下使用生成式AI。
在人工智能讨论中出现的一个主要问题是数据隐私,已经有三个领先的去中心化AI项目:Fetch.ai、SingularityNET(SNET)和Ocean Protocol,决定合并以创建一个去中心化的AI生态系统。
“截至目前,Opera One开发者用户可以选择他们希望用来处理输入的模型。为了测试这些模型,他们需要升级到最新版本的Opera Developer,并按照几个步骤激活新功能,” Opera表示。
“选择本地LLM后,它将被下载到用户的设备上。每个变体通常需要2到10 GB的本地存储空间,然后将使用该本地LLM代替Aria,也就是Opera的原生浏览器AI,直到用户开始与AI的新对话或切换回Aria。”
此外,Opera还强调,使用本地LLMs意味着用户的隐私得到了更好的保护,因为数据不会离开设备。
Opera还表示,用户可以在设置中选择不同的本地模型,以便根据不同需求进行切换和测试。
Opera还计划在未来持续优化本地AI模型的性能和安全性,为用户带来更智能、更私密的浏览体验。
“关注我们在Twitter上的最新动态,获取最新的产品更新和技术资讯。”