Scannez pour télécharger l’application Gate
qrCode
Autres options de téléchargement
Ne pas rappeler aujourd’hui

Ancien scientifique d'OpenAI : la puissance de calcul a atteint ses limites, l'industrie de l'IA doit revenir à son noyau de recherche.

L'ancien chef scientifique d'OpenAI, Ilya Sutskever, co-fondateur actuel de SSI, a déclaré lors de son dernier entretien que les modèles d'IA sont presque invincibles dans divers tests, évaluations et compétitions, mais la vie quotidienne de la plupart des gens n'a pas été profondément transformée. Il estime que cet écart entre “une performance exceptionnelle dans les tests d'évaluation et une expérience ordinaire” provient d'une dépendance excessive de l'industrie au cours des dernières années à la formule du succès consistant à “accumuler de la puissance de calcul, des données et des paramètres de modèle”. Cependant, les corpus naturels disponibles pour le pré-entraînement sont limités, et cette voie rencontrera tôt ou tard des goulots d'étranglement. Le développement futur de l'IA entrera dans une nouvelle phase, où il ne s'agira plus de savoir qui a le plus de GPU, mais de trouver de nouveaux principes d'apprentissage, de comprendre la généralisation et de rendre l'apprentissage de l'IA plus proche de celui des humains.

L'intrigue de science-fiction se déroule, mais la vie n'a guère changé.

Dès le début de l'entretien, l'animateur décrit le développement actuel de l'IA et l'atmosphère entière de la région de la baie de San Francisco comme étant tout à fait semblable à celle d'un récit de science-fiction. Cependant, de manière paradoxale, même si les investissements mondiaux dans l'IA atteignent souvent des milliards, voire des milliers de milliards de dollars, cumulant presque 1 % du PIB de chaque pays, la vie quotidienne des gens ordinaires n'a pas radicalement changé.

La plupart des gens ne voient que dans les nouvelles que les géants de la technologie annoncent une nouvelle expansion de leurs centres de données, ou qu'ils dépensent encore un certain budget pour acheter des GPU, mais du coin de la rue à l'autre, les changements liés à l'IA sont encore assez limités.

Sutskever a accepté cette affirmation et a souligné que les capacités du modèle sont effectivement puissantes, mais dans l'environnement de vie familier des gens, la sensation ne sera pas aussi choquante que dans un laboratoire ou un rapport de recherche, cet écart est en fait un phénomène normal.

L'évaluation des compétences est extrêmement forte, mais la performance pratique est souvent défaillante.

Sutskever a ensuite parlé de la « double facette » du modèle. Il a déclaré que l'IA peut souvent démontrer des niveaux supérieurs à ceux des humains dans les évaluations de programmes, les tests standardisés ou divers benchmarks, mais une fois confrontée à des besoins réels, elle se retrouve dans des situations complètement différentes. Il a donné l'exemple de nombreux développeurs qui demandent au modèle de les aider à corriger des bugs. Le modèle a généralement une grande confiance pour identifier le problème et proposer des modifications, mais l'étape suivante introduit souvent de nouvelles erreurs.

Lorsque vous lui demandez de corriger une deuxième erreur, il se peut qu'il réintroduise le premier bug, formant ainsi un cercle entre les deux erreurs. Sutskever estime que cette contradiction de « super performant dans les évaluations, instable dans le monde réel » est l'un des phénomènes d'IA les plus dignes d'être compris en profondeur actuellement.

Pour tester l'entraînement, cela a conduit le modèle à s'écarter du monde réel.

En analysant les raisons de l'écart, Sutskever a souligné que les grandes entreprises, lorsqu'elles font de l'apprentissage par renforcement, ajustent souvent le comportement de leurs modèles en fonction des tâches d'évaluation publiques. Car dès qu'ils se démarquent lors des évaluations, ils peuvent prendre l'avantage lors des conférences de presse, des présentations aux investisseurs et des comparaisons techniques. Cela rend les modèles incroyablement puissants dans ces scénarios de test, mais une fois confrontés à des situations réelles changeantes, ils ne peuvent pas montrer les mêmes capacités.

Il fait une analogie avec les compétitions de programmation. Un compétiteur qui s'entraîne pendant 10 000 heures pour remporter le championnat peut effectivement obtenir des résultats impressionnants lors de la compétition. Un autre qui n'a pratiqué que 100 heures, mais qui possède une certaine compréhension innée des problèmes, pourrait en réalité être plus flexible dans sa carrière à long terme. Le modèle actuel est comme le premier :

« Hautement entraîné, extrêmement performant dans des tâches fixes, mais manquant de la capacité de généralisation profonde de style humain. »

La tendance de l'expansion des modèles est en plein essor, l'espace de recherche est considérablement réduit.

Sutskever se remémore que la période de 2012 à 2020 peut être considérée comme la “période dorée de la recherche en IA”, avec une exploration active de différentes architectures et méthodes par divers secteurs, de nombreuses percées provenant de nouvelles idées novatrices. Cependant, le succès de GPT-3 et de la loi d'expansion des modèles a complètement changé la donne. Depuis lors, l'ensemble de l'industrie a progressivement formé un consensus :

« Agrandir le modèle, augmenter les données, ajouter de la puissance de calcul, les capacités augmenteront naturellement. »

Cette approche basée sur des formules est devenue la norme sur le marché des investissements et dans de nombreuses grandes entreprises en raison de son faible risque et de ses résultats prévisibles. Cependant, parce que tout le monde utilise la même stratégie, l'espace réel de recherche est en fait compressé.

Les données naturelles étant limitées, le pré-entraînement finira par rencontrer des obstacles.

Sutskever a souligné que les corpus naturels disponibles en ligne sont limités, et que l'entraînement de grands modèles de langage repose sur ces textes. Après des années d'expansion, les différentes entreprises sont désormais proches d'avoir « utilisé à fond » tous les corpus disponibles. Lorsque la quantité de données ne peut plus doubler, l'amélioration des performances uniquement grâce à l'augmentation de la taille du modèle et de la Puissance de calcul ralentira clairement.

Il pense que cela représente l'entrée de l'IA dans une nouvelle phase, où il ne s'agit plus seulement de rendre les modèles plus grands, mais de comprendre à nouveau comment les humains apprennent, comment la généralisation se forme, si les modèles peuvent se corriger d'eux-mêmes avec moins d'exemples, et s'ils peuvent avoir la capacité d'évaluation en cours de route comme les humains, plutôt que de dépendre uniquement des retours finaux pour déterminer la direction du comportement.

Ces problèmes ne peuvent essentiellement pas être résolus par le nombre de GPU, mais nécessitent une véritable recherche scientifique.

(Note : Pré-formation, qui signifie permettre au modèle de lire d'énormes textes en ligne pour apprendre la structure linguistique et les connaissances de base, formant ainsi la base des capacités ultérieures. Les grands modèles majeurs utilisent tous la pré-formation comme première étape. )

L'apprentissage par renforcement a conduit à une explosion de la puissance de calcul, rendant l'efficacité inférieure à ce que l'on imaginait.

Sutskever a également mentionné que, ces dernières années, de nombreuses entreprises ont des échelles d'entraînement en renforcement (RL) qui dépassent même celles de l'entraînement préliminaire. Ces longues séquences de déductions consomment une quantité importante de Puissance de calcul, mais chaque déduction apporte en réalité un apprentissage efficace limité, ce qui réduit l'efficacité globale. Si l'on continue de s'appuyer sur la même méthode d'entraînement, on n'investira que plus de ressources, sans pouvoir dépasser les limites intrinsèques du modèle.

Il estime donc que l'industrie de l'IA revient progressivement à une phase de recherche axée sur la « recherche de nouvelles méthodes », où l'accent n'est plus mis sur qui possède le plus grand centre de données, mais sur qui peut trouver de nouveaux principes d'apprentissage.

(Note : l'apprentissage par renforcement (Reinforcement Learning) signifie que le modèle grandit grâce à une méthode d'entraînement basée sur l'essai et l'erreur, le modèle reçoit des retours ou des récompenses après avoir accompli une tâche, et ajuste son comportement en conséquence. )

Concentrez-vous sur la compréhension et l'apprentissage, nous parlerons du modèle commercial plus tard.

Sutskever a déclaré que la stratégie de SSI est de se concentrer sur la recherche, en particulier sur la compréhension de la généralisation, des modes d'apprentissage humains, et de la manière dont les modèles peuvent s'améliorer par eux-mêmes à partir de peu de démonstrations. Il pense que plutôt que de se précipiter pour répondre aux modèles commerciaux, il vaut mieux se concentrer sur la recherche d'architectures d'apprentissage plus fondamentales que le pré-entraînement ; une fois qu'il y aura des percées, diverses applications commerciales commenceront à apparaître.

Il estime que dans 5 à 20 ans, il sera possible de créer une IA ayant une “efficacité d'apprentissage comparable à celle des humains”. Une fois que les machines seront capables d'acquérir de nouvelles compétences aussi rapidement que les humains, combinées à un déploiement à grande échelle, leurs capacités globales connaîtront une croissance exponentielle, approchant de l'intelligence super.

L'écart entre l'évaluation et l'utilité disparaîtra avec l'apparition de nouvelles méthodes d'apprentissage.

Sutskever a finalement déclaré que la raison pour laquelle la révolution de l'IA actuelle ne semble pas spectaculaire est qu'il existe encore un fossé évident entre la capacité des modèles et leur utilisation. Lorsque les modèles évolueront de la capacité à passer des examens à celle d'apprendre, de s'auto-corriger, de généraliser de manière continue et de croître de manière stable, l'IA redéfinira la vie mondiale à une vitesse extrêmement rapide.

À ce moment-là, les gens ne verront plus seulement d'énormes investissements dans les nouvelles, mais pourront réellement ressentir le changement dans leur vie quotidienne.

Cet article ancien des scientifiques d'OpenAI : La puissance de calcul a atteint ses limites, l'industrie de l'IA doit revenir à son noyau de recherche. Publié pour la première fois sur Chaîne d'actualités ABMedia.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)