Meta utilisera l’information d’actualité de Reuters dans son assistant virtuel Meta AI

Meta mise sur son assistant virtuel Meta AI pour ses apps

Meta, le champion des plateformes sociales (Facebook, Instagram, WhatsApp, Messenger) utilisera le contenu de l’agence de presse Reuters afin que son chatbot d’intelligence artificielle, Meta AI, réponde en temps réel aux questions des utilisateurs sur l’actualité et les événements actuels.


Meta AI est stratégique pour Meta


Meta AI est stratégique dans le développement du réseau social Meta. Meta pousse afin qu’il soit de plus en plus utilisé. Le tout repose sur la démarche d’IA de Meta en matière de grands modèles de langages (LLM) basculés en Open Source avec Llama afin de trouver le soutien de la communauté des développeurs.



« Nous pouvons confirmer que Reuters a conclu un partenariat avec des fournisseurs de technologie pour obtenir des licences pour notre contenu d’actualité« 

Meta AI, le chatbot de l’entreprise, est disponible sur tous ses services, notamment Facebook, Whatsapp et Instagram. Le géant des réseaux sociaux n’a pas révélé s’il prévoyait d’utiliser le contenu de Reuters pour entraîner son grand modèle de langage (LLM). « Nous pouvons confirmer que Reuters a conclu un partenariat avec des fournisseurs de technologie pour obtenir des licences pour notre contenu d’actualité fiable et factuel afin d’alimenter leurs plateformes d’IA. Les termes de ces accords restent confidentiels », a déclaré un porte-parole de Reuters dans un communiqué. Reuters sera rémunéré pour ces accès à ses informations.

Avec ce partenariat avec Reuters, « Meta AI peut répondre aux questions liées à l’actualité avec des résumés et des liens vers le contenu de Reuters », décrit un porte-parole de Meta dans un communiqué envoyé par courrier électronique. Reuters a déjà un partenariat de vérification des faits avec Meta, qui a débuté en 2020.

Accords entre entreprises de la tech et médias

D’autres entreprises, dont OpenAI, le créateur de ChatGPT, et la startup Perplexity qui développe un moteur de recherche de nouvelle génération, soutenue par Jeff Bezos fondateur d’Amazon, ont conclu des partenariats d’IA similaires avec des organismes de presse. En France, OpenAI a conclu un accord avec Le Monde afin de pouvoir accéder à ses contenus. OpenAI avait été banni par Radio France sur l’accès à ses contenus.

Meta estime qu’il y a désormais plus de 3,2 milliards de personnes dans le monde qui utilisent au moins une de ses plateformes

Susan Li, CFO (Chief Financial Officer) de Meta, confirme l’importance de l’assistant virtuel Meta AI à l’occasion de la présentation des résultats de Meta, le 30 octobre 2024, aux côtés de Mark Zuckerberg, patron de Meta.  L’accord entre Meta et Reuters intervient alors que Meta apparaît particulièrement puissant en tant que groupe de communication. Meta estime que désormais 3,2 milliards de personnes dans le monde utilisent au moins une de ses plateformes (Facebook, Instagram, WhatsApp, Messenger) chaque jour.

Susan Li, directrice financière de Meta

La directrice financière de Meta démontre une connaissance précise des produits et de l’IA de Meta. « L’utilisation de Meta AI continue de s’accroître à mesure que nous le rendons disponible dans davantage de pays et de langues. Nous constatons une augmentation de son utilisation à mesure que nous améliorons nos modèles et avons introduit un certain nombre d’améliorations au cours des 6 derniers mois pour rendre Meta AI plus utile et plus engageant » déclare-t-elle.

Meta AI évolue vers le multi-modal

Meta AI évolue vers le multi-modal. « Le mois dernier, nous avons commencé à introduire Voice, pour que vous puissiez parler avec Meta AI plus naturellement, et il est désormais entièrement disponible en anglais pour les personnes aux États-Unis, en Australie, au Canada et en Nouvelle-Zélande » dit-elle.

« Les utilisateurs peuvent désormais télécharger des photos sur Meta AI pour en savoir plus sur elles »

« Aux États-Unis, les utilisateurs peuvent désormais également télécharger des photos sur Meta AI pour en savoir plus sur elles, rédiger des légendes pour les publications et ajouter, supprimer ou modifier des éléments sur leurs images avec une simple invite de texte [prompt]. Tout cela est construit avec notre premier modèle de base multimodal, Llama 3.2 » décrit-elle.

« Nous sommes enthousiasmés par les progrès de Meta AI. Il est évidemment très tôt dans son parcours, mais il continue d’être en bonne voie pour devenir l’assistant IA le plus utilisé au monde d’ici la fin de l’année et il compte plus de 500 millions d’utilisateurs actifs par mois » revendique-t-elle.

Collecte d’informations et aide aux tâches pratiques

« Les gens l’utilisent pour de nombreuses choses. Parmi les cas d’utilisation fréquents que nous observons, citons la collecte d’informations, l’aide aux tâches pratiques, qui est le cas d’utilisation le plus important. Mais nous voyons également des gens l’utiliser pour approfondir des centres d’intérêts, pour rechercher du contenu sur nos services, pour générer des images, c’est également un autre cas d’utilisation assez populaire jusqu’à présent » présente-t-elle.

« A court terme, notre objectif est vraiment de rendre Meta AI de plus en plus utile pour les gens« 

« A court terme, notre objectif est vraiment de rendre Meta AI de plus en plus utile pour les gens et si nous réussissons, nous pensons qu’il y aura un ensemble de requêtes de plus en plus large pour lesquelles les gens l’utiliseront, y compris des requêtes plus monétisables au fil du temps » avance-t-elle.

Meta AI s’appuie sur le contenu du Web pour répondre aux questions des utilisateurs et fournit des sources pour ces résultats à partir des moteurs de recherche partenaires. « Nous avons intégré Bing et Google, qui offrent tous deux d’excellentes expériences de recherche. Comme d’autres entreprises, nous formons également nos modèles d’IA générative sur du contenu accessible au public en ligne et nous explorons le Web à diverses fins » poursuit-elle.

Usage en interne de l’IA pour accélérer le codage informatique

Meta utilise-t-il ses IA en interne ? « Par exemple, il est encore tôt, mais nous constatons une adoption massive en interne de notre assistant interne et de notre agent de codage, et nous continuons à rendre Llama plus efficace pour le codage, ce qui devrait également rendre ce cas d’utilisation de plus en plus précieux pour les développeurs au fil du temps » commente la CFO.

« Nous nous concentrons sur le fait que Meta AI ait une expérience client aussi engageante et utile que possible« 

Meta espère aussi pouvoir déployer ces outils d’IA dans le cadre d’une grande partie de ses efforts de modération des contenus afin d’être plus efficace dans cette tâche. « À l’heure actuelle, nous nous concentrons vraiment sur le fait que Meta AI ait une expérience client aussi engageante et utile que possible » explique-t-elle.

«  Au fil du temps, nous pensons qu’il y aura un ensemble de requêtes de plus en plus large pour lesquelles les gens l’utiliseront. Et je pense que les opportunités de monétisation existeront au fil du temps, à mesure que nous y parviendrons » pense-t-elle. « Mais pour l’instant, je dirais que nous nous concentrons vraiment sur l’expérience client avant tout et c’est en quelque sorte un manuel pour nous sur les produits que nous mettons sur le marché où nous définissons vraiment l’expérience client avant de nous concentrer sur ce à quoi pourrait ressembler la monétisation » finit-elle.

Diffusion en Open Source des modèles Llama de Meta

La démarche Meta AI s’appuie sur la stratégie d’intelligence artificielle de Meta qui fait appel sur la diffusion en Open Source de ses grands modèles de langage LlAMA afin qu’ils soient utilisés et améliorés par la communauté des développeurs. La gamme des LLM (Large Language Models) LLAMA servent aux outils de Meta, c’est à dire Meta AI, AI Studio ou Business AIs.

« Beaucoup de chercheurs et de développeurs indépendants travaillent sur LlAMA et apportent des améliorations »

L’Open Source aide Meta à avancer. « Il y a beaucoup de chercheurs et de développeurs indépendants qui travaillent sur LlAMA et ils apportent des améliorations, puis ils les publient et il devient très facile pour nous d’intégrer cela à la fois dans Llama et dans nos produits Meta comme Meta AI ou AI Studio ou Business Ais » se félicite Mark Zuckerberg, patron de Meta, lors de la présentation des résultats trimestriels de Meta, le 30 octobre 2024.

Le dirigeant y voit l’occasion de surtout améliorer l’efficacité et le coût de ses IA à moindre frais. « Cette matière est évidemment très coûteuse. Lorsque quelqu’un trouve un moyen de mieux faire fonctionner cela, s’il peut le faire fonctionner 20 % plus efficacement, alors cela nous fera économiser énormément d’argent » ajoute-t-il.

Croissance exponentielle de l’usage de Llama

Mark Zuckerberg constate une forte dynamique avec Llama. L’utilisation des jetons (tokens) Llama a connu une croissance exponentielle en 2024. « Et plus Llama sera largement adopté et deviendra la norme du secteur, plus les améliorations de sa qualité et de son efficacité se répercuteront sur tous nos produits » dit-il.

Meta a publié Llama 3.2, y compris des petits modèles qui s’exécutent sur des terminaux et des modèles multimodaux Open Source

Au 3ème trimestre 2024, Meta a publié Llama 3.2, y compris des petits modèles qui s’exécutent sur des terminaux et des modèles multimodaux (qui comprennent la voix, l’image et le texte) Open Source. « Nous travaillons avec les entreprises pour le rendre plus facile à utiliser, et nous travaillons également maintenant avec le secteur public pour adopter Llama dans l’ensemble du gouvernement américain » ajoute-t-il.

Meta investit dans l’entraînement de son modèle de LLM LLama 4. « Nous entraînons les modèles Llama 4 sur un cluster plus grand que 100 000 H100 [les H100 sont des processeurs GPU dédiés à l’IA conçus par Nvidia] ou plus grand que tout ce que j’ai vu rapporté sur ce que font les autres » déclare Mark Zuckerberg.

Des progrès sur les petits modèles de langages

Ces nouveaux modèles de LLM seront disponibles en 2025. « Je m’attends à ce que les plus petits modèles Llama 4 soient prêts en premier, et ils seront prêts, nous l’espérons, au début de l’année prochaine [2025], et je pense qu’ils seront quelques chose d’important, sur plusieurs fronts : de nouvelles modalités, de nouvelles capacités, un raisonnement plus fort et beaucoup plus rapide » s’enthousiasme le dirigeant.

« L’Open source sera l’option la plus rentable, la plus personnalisable, la plus fiable, la plus performante et la plus simple à utiliser »

Il défend son choix de l’Open source pour ses modèles d’IA. « Il me semble clair que l’Open source sera l’option la plus rentable, la plus personnalisable, la plus fiable, la plus performante et la plus simple à utiliser qui soit disponible pour les développeurs, et je suis fier que Llama ouvre la voie dans ce domaine » affirme-t-il.

2024 aura été l’année de Meta AI, l’assistant virtuel de Meta. « Cette année, nous nous sommes vraiment concentrés sur le déploiement de Meta AI comme une sorte d’assistant unique auquel les gens peuvent poser toutes leurs questions » indique le dirigeant. L’année prochaine devrait voir beaucoup d’opportunités. « Elles se développeront selon moi davantage au cours de l’année prochaine [2025] en termes de cas d’utilisation grand public et professionnel, pour les personnes interagissant avec une grande variété d’agents d’IA différents » annonce-t-il.

Toute entreprise doit pouvoir mettre en place un agent d’IA

Côté commercial, Meta veut faire en sorte que toute petite entreprise ou toute entreprise au fil du temps puisse, en quelques clics, mettre en place un agent d’IA capable d’aider à assurer le service client et les ventes à tous ses clients dans le monde entier.

Meta a terminé le troisième trimestre 2024 avec 72 400 employés, en hausse de 9 % par rapport à l’année précédente, la croissance étant principalement tirée par l’embauche dans ses domaines prioritaires de monétisation, d’infrastructure, de Reality Labs, d’IA générative, ainsi que de réglementation et de conformité.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *