ARTIFICIAL INTELLIGENCE | Opera Browser Integrates Major AI Models for Local Download and Offline Use

robot
Генерация тезисов в процессе

Ведущая компания в области браузеров, Opera, объявила о добавлении экспериментальной поддержки 150 локальных вариантов LLM (Large Language Model) из примерно 50 семей моделей в свой браузер Opera One в разработческой версии.

Модели LLM, такие как GPT (Generative Pre-trained Transformer), разработанные компанией OpenAI, являются передовыми системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текста, похожего на человеческий. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.

По словам Opera, это первый раз, когда локальные LLM могут быть легко доступны и управляемы из крупного браузера через встроенную функцию. Локальные модели ИИ являются дополнительным бесплатным дополнением к онлайн-сервису Opera Aria AI. Среди поддерживаемых локальных LLM есть:

  • Llama от Meta
  • Vicuna
  • Gemma от Google
  • Mixtral от Mistral AI

«Представление локальных LLM таким образом позволяет Opera начать исследовать способы создания опыта и знаний в быстро развивающемся пространстве локального ИИ,» сказал Кристиан Колондар, EVP по браузерам и играм в Opera.

Использование локальных больших языковых моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет использовать генеративный ИИ без необходимости отправлять информацию на сервер, сообщили в Opera.

Среди проблем, возникающих в дискуссиях об искусственном интеллекте, — вопросы конфиденциальности данных, что привело к слиянию трех ведущих децентрализованных проектов ИИ: Fetch.ai, SingularityNET (SNET) и Ocean Protocol для создания децентрализованной экосистемы ИИ.

«На сегодняшний день пользователи Opera One Developer получают возможность выбрать модель, с которой они хотят обрабатывать свои данные. Чтобы протестировать модели, им нужно обновить до последней версии Opera Developer и выполнить несколько шагов для активации новой функции,» сообщили в Opera.

«Выбор локальной LLM затем загрузит её на их устройство. Локальная LLM, которая обычно требует 2-10 ГБ локального пространства для хранения на вариант, будет использоваться вместо Aria, встроенного ИИ браузера Opera, пока пользователь не начнет новый чат с ИИ или не включит Aria обратно.»

Подписывайтесь на нас в Twitter, чтобы получать последние посты и обновления

GPT-4,45%
SNET-0,3%
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить