Meta Platforms dévoile le modèle linguistique Llama 3

47

Dans une tentative de dépasser OpenAI, le leader du marché de l’IA générative, Meta Platforms a publié jeudi des versions préliminaires de son grand modèle de langage le plus récent, Llama 3, et un générateur d’images qui met à jour les images en temps réel pendant que les utilisateurs tapent des messages-guides.

Les modèles seront intégrés dans son assistant virtuel Meta AI, que l’entreprise présente comme le plus sophistiqué de ses pairs à usage gratuit, en citant des comparaisons de performances sur des sujets tels que le raisonnement, le codage et l’écriture créative par rapport aux offres de rivaux tels que Google d’Alphabet et la startup française Mistral AI.

L’assistant Meta AI mis à jour sera davantage mis en avant dans les applications Facebook, Instagram, WhatsApp et Messenger de Meta, ainsi que sur un nouveau site web autonome qui le positionne en concurrence plus directe avec ChatGPT, le succès retentissant d’OpenAI soutenu par Microsoft.

Une page de renvoi accueillant les visiteurs de ce site les invite à demander à l’assistant de créer une liste d’emballage pour les vacances, de jouer avec eux à des jeux télévisés sur la musique des années 1990, de les aider à faire leurs devoirs et de peindre des images de l’horizon de la ville de New York.

Meta a fait des pieds et des mains pour proposer des produits d’IA générative à ses milliards d’utilisateurs afin de contester la position dominante d’OpenAI sur cette technologie, ce qui implique une refonte coûteuse de l’infrastructure informatique et la consolidation d’équipes de recherche et de produits auparavant distinctes.

Dans le cadre de ses efforts de rattrapage, le géant des médias sociaux a ouvertement mis à la disposition des développeurs d’applications d’IA ses modèles de lamas, car une option gratuite puissante pourrait contrecarrer les plans de ses rivaux visant à tirer des revenus de leur technologie propriétaire. Cette stratégie a suscité des inquiétudes en matière de sécurité de la part des critiques qui craignent que des acteurs peu scrupuleux n’utilisent le modèle pour créer des applications.

Meta a doté le Llama 3 de nouvelles capacités de codage informatique et l’a alimenté en images ainsi qu’en texte lors de la formation, bien que pour l’instant le modèle ne produise que du texte, a déclaré Chris Cox, chef de produit chez Meta, lors d’une interview.

Des raisonnements plus avancés, comme la capacité à élaborer des plans plus longs en plusieurs étapes, suivront dans les versions ultérieures, a-t-il ajouté. Les versions prévues pour les mois à venir seront également capables de “multimodalité”, c’est-à-dire qu’elles pourront générer à la fois du texte et des images, a indiqué Meta dans des articles de blog.

Comments are closed.