ARTIFICIAL INTELLIGENCE | Opera Browser Integrates Major AI Models for Local Download and Offline Use

robot
Création du résumé en cours

La société de navigation leader, Opera, annonce qu’elle ajoute un support expérimental pour 150 variantes locales de LLM (Modèles de Langage de Grande Taille) provenant d’environ 50 familles de modèles à son navigateur Opera One dans le flux développeur.

Les LLM tels que les modèles GPT (Transformeur Pré-entraîné Génératif) développés par OpenAI, sont des systèmes d’intelligence artificielle avancés entraînés sur de grandes quantités de données textuelles pour comprendre et générer du texte semblable à celui des humains. Ils sont utilisés pour diverses tâches de traitement du langage naturel, notamment la génération de texte, la traduction et le résumé.

Selon Opera, c’est la première fois que les LLM locaux peuvent être facilement accessibles et gérés depuis un navigateur majeur via une fonctionnalité intégrée. Les modèles d’IA locaux complètent le service en ligne Aria AI d’Opera. Parmi les LLM locaux pris en charge, on trouve :

  • Llama de Meta
  • Vicuna
  • Gemma de Google
  • Mixtral de Mistral AI

« Introduire des LLM locaux de cette manière permet à Opera de commencer à explorer des moyens de construire des expériences et des savoir-faire dans l’espace de l’IA locale, en pleine émergence, » a déclaré Krystian Kolondra, EVP Navigateur et Gaming chez Opera.

Utiliser des Modèles de Langage de Grande Taille locaux signifie que les données des utilisateurs sont conservées localement sur leur appareil, leur permettant d’utiliser une IA générative sans avoir besoin d’envoyer des informations à un serveur, a indiqué Opera.

Parmi les enjeux émergents dans le discours sur l’intelligence artificielle figure la question de la confidentialité des données, qui a conduit trois projets d’IA décentralisée de premier plan ; Fetch.ai, SingularityNET (SNET) et Ocean Protocol, à décider de fusionner pour créer un écosystème d’IA décentralisé.

« À partir d’aujourd’hui, les utilisateurs développeurs d’Opera One ont la possibilité de sélectionner le modèle avec lequel ils souhaitent traiter leurs entrées. Pour tester les modèles, ils doivent mettre à jour vers la dernière version d’Opera Developer et suivre plusieurs étapes pour activer la nouvelle fonctionnalité, » a indiqué Opera.

« Choisir un LLM local le téléchargera alors sur leur machine. Le LLM local, qui nécessite généralement entre 2 et 10 Go d’espace de stockage local par variante, sera ensuite utilisé à la place d’Aria, l’IA native du navigateur d’Opera, jusqu’à ce qu’un utilisateur commence une nouvelle conversation avec l’IA ou réactive Aria. »

Suivez-nous sur Twitter pour les dernières publications et mises à jour

GPT-4,45%
SNET-0,3%
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)