Yi-Large

Yi-Large : enfin une vraie réponse de la Chine à ChatGPT ?

Depuis plus d'un an, Kai-Fu Lee et sa startup 01.ai cherchent à marquer le domaine de l'intelligence artificielle. Leur dernier modèle, Yi-Large, est-il la réponse tant attendue de la Chine à ChatGPT ?

Fondée par Kai-Fu Lee, la startup chinoise 01.ai a récemment introduit Yi-Large. C'est un grand modèle de langage, conçu spécialement pour les professionnels via une API.

En parallèle, 01.ai a lancé Wanzhi, sa première application d'IA générative pour le grand public, similaire au de . Néanmoins, Wanzhi est avant tout destiné au marché chinois. Cela dit, l'application fonctionne aussi en anglais, ce qui élargit son accessibilité.

Et pour information, Whanzi aide à créer des tableurs et des présentations rapidement. Elle interprète aussi des rapports financiers et résume des textes longs.

Cette application fonctionne en chinois et en anglais, et est conçue pour le marché chinois mais vise une audience globale.

Yi-Large conquiert le classement mondial de l'IA

Le 13 mai, un tournant s'est produit lorsque 01.AI a publié Yi-Large. Composé d'un milliard de paramètres, ce modèle à code source fermé a été classé juste derrière le GPT-4 Turbo d'OpenAI dans le classement de compétence en anglais AlpacaEval 2.0. Son taux de victoire global l'a placé au premier rang mondial, une performance remarquable.

Dans le passé, 01.ai s'était concentrée sur des modèles open source de petite et moyenne échelle. Au lieu de continuer sur cette voie, l'équipe a reconnu la valeur pratique des grands modèles fermés.

En général, ces modèles offrent des avantages significatifs en termes de puissance et de capacité. Pour que l'entreprise reste compétitive, Kai-Fu Lee a également révélé la formation du modèle Yi-XLarge MoE. Ce nouveau modèle comprend un trillion de paramètres, montrant une évolution impressionnante.

Le concept TC-PMF : une nouvelle stratégie innovante

Autrefois, le terme PMF (Product-Market Fit) dominait les discussions parmi les entrepreneurs. Cependant, Kai-Fu Lee estime que ce concept est désuet à l'ère actuelle des grands modèles d'IA.

« Les applications de haute qualité requises pour la croissance des utilisateurs ne peuvent être séparées de modèles de base puissants », a-t-il déclaré.

Sous prétexte que les coûts d'inférence augmentent avec la taille de l'utilisateur, il a introduit le concept de TC-PMF (Technological Cost-Product Market Fit).

« Avec TC-PMF, la réduction des coûts de raisonnement est une cible mobile, qui est 100 fois plus difficile que le PMF traditionnel. »

Kai-Fu Lee critique les dépenses irrationnelles en IA

Kai-Fu Lee critique certaines pratiques des grandes entreprises modèles qui achètent du trafic pour la promotion. Il a souligné que l'industrie devrait éviter ces pratiques irrationnelles, telles que brûler de l'argent de manière inconsidérée.

Pour que 01.ai continue de croître et reste compétitive, quatre directions claires ont été identifiées. Celles-ci incluent la disposition globale, la collaboration modèle-base, l'intégration du modèle et de l'application, ainsi que la priorité donnée à l'IA.

En termes de mondialisation, 01.ai a lancé 4 produits de consommation à l'étranger, avec des revenus attendus supérieurs à cent millions de yuans cette année et un retour sur investissement de 1. La base d'utilisateurs de ces applications de productivité à l'étranger compte des dizaines de millions.

La construction conjointe du modèle fait principalement référence à une technologie d'infrastructure d'IA auto-développée. Celle-ci peut optimiser les méthodes de formation dès la couche inférieure et améliorer l'efficacité informatique.

Après optimisation, le coût de formation du modèle d'un milliard de paramètres a diminué de moitié par rapport à l'année précédente.

Selon moi, la Chine a fait d'énormes avancées pour concurrencer . Croyez-vous aussi qu'elle pourrait dépasser OpenAI prochainement ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *