Le TII, leader de l’IA au Moyen-Orient, lance : Falcon Arabic (un 1er modèle en arabe), et Falcon-H1, un modèle haute performance parmi les meilleurs

0
  • Falcon Arabic : En plus de l’anglais et des langues d’origine européenne, Falcon intègre désormais l’arabe – étendant ainsi sa portée dans le monde arabophone en tant que modèle d’IA en arabe le plus performant de la région.
  • Falcon-H1 : Redéfinit les standards de performance et de portabilité, surpassant les modèles LLaMA de Meta et Qwen d’Alibaba, pour rendre l’IA applicable dans des contextes réels, sur des appareils du quotidien et dans des environnements à ressources limitées.

La-Femme (Le TII) – Le Technology Innovation Institute (TII), le pilier de la recherche appliquée du Conseil de recherche en technologies avancées d’Abou Dhabi (ATRC), a dévoilé aujourd’hui deux avancées majeures en intelligence artificielle (IA) : Falcon Arabic, le tout premier modèle linguistique arabe de la série Falcon – désormais le modèle d’IA arabe le plus performant de la région – et Falcon H1, un nouveau modèle qui redéfinit la performance et la portabilité grâce à une conception architecturale inédite. Dans la catégorie des modèles d’IA de taille petite à moyenne (de 30 à 70 milliards de paramètres), Falcon H1 surpasse les modèles équivalents proposés par LLaMA de Meta et Qwen d’Alibaba, permettant une utilisation concrète de l’IA sur des appareils du quotidien et dans des environnements à ressources limitées. L’annonce a été faite lors d’un discours inaugural prononcé par S.E. Faisal Al Bannai, conseiller du Président des Émirats arabes unis et secrétaire général de l’ATRC, à l’occasion de l’événement Make it in the Emirates.

Construit sur la base de Falcon 3-7B (modèle de 7 milliards de paramètres), Falcon Arabic est l’un des modèles d’intelligence artificielle arabes les plus avancés jamais développés. Entraîné sur un ensemble de données arabes natives (non traduites) de haute qualité, couvrant l’arabe standard moderne ainsi que les dialectes régionaux, il reflète pleinement la diversité linguistique du monde arabe. Selon les critères de référence du classement Open Arabic LLM Leaderboard, Falcon Arabic surpasse tous les autres modèles linguistiques arabes disponibles dans la région, consolidant ainsi sa position de leader en matière d’IA souveraine et multilingue. Il est classé comme le modèle arabe le plus performant de sa catégorie, égalant les performances de modèles jusqu’à dix fois plus grands, démontrant ainsi que l’intelligence architecturale peut surpasser la simple échelle.

Parallèlement, le nouveau modèle Falcon H1 a été conçu pour élargir de manière significative l’accès à l’intelligence artificielle de haute performance, en réduisant les besoins en puissance de calcul et en expertise technique traditionnellement requis pour faire fonctionner des systèmes avancés. Cette annonce s’appuie sur le succès de la série Falcon 3 offerte par TII, qui s’est classée parmi les meilleurs modèles d’IA au monde capables de fonctionner sur une seule unité de traitement graphique (GPU) —une avancée majeure ayant permis à des développeurs, startups et institutions dépourvus d’infrastructures haut de gamme de déployer une IA de pointe à moindre coût.

« Nous sommes fiers d’avoir enfin intégré la langue arabe à la série Falcon, et encore plus fiers que le modèle de langage le plus performant du monde arabe ait été développé aux Émirats arabes unis », a déclaré S.E. Faisal Al Bannai lors de l’événement Make it in the Emirates à Abou Dhabi. À propos de Falcon H1, il a précisé : « Aujourd’hui, le leadership en matière d’intelligence artificielle ne repose plus sur une question d’échelle pour des raisons d’échelle. Il s’agit de rendre les outils puissants utiles, utilisables et accessibles à tous. Falcon H1 reflète notre engagement à offrir une intelligence artificielle qui fonctionne pour tous – et non pour une minorité ».

Falcon-H1 continue de prendre en charge les langues d’origine européenne et offre, pour la première fois, une capacité évolutive permettant de gérer plus de 100 langues, grâce à un tokenizer multilingue entraîné sur des ensembles de données diversifiés.

Plus intelligent, plus simple et plus inclusif

Falcon-H1 a été développé pour répondre à la demande mondiale croissante de systèmes d’intelligence artificielle efficaces, flexibles et faciles à utiliser. Le « H » de Falcon-H1 fait référence à son architecture hybride, qui combine les atouts des Transformers et de Mamba. Cette approche permet d’atteindre des vitesses d’inférence nettement plus rapides et une consommation mémoire réduite, tout en conservant des performances élevées sur une large gamme d’indicateurs de référence.

« Nous avons abordé Falcon-H1 non seulement comme une avancée scientifique, mais aussi comme un défi d’ingénierie : comment offrir une efficacité exceptionnelle sans compromis », a déclaré Dr Najwa Aaraj, PDG du TII. « Ce modèle reflète notre engagement à développer des systèmes techniquement rigoureux et utiles dans la vie réelle. Falcon n’est pas qu’un simple modèle ; c’est une base qui donne les moyens aux chercheurs, développeurs et innovateurs, notamment dans des environnements où les ressources sont limitées, mais où les ambitions restent grandes ».

La gamme Falcon-H1 comprend des modèles de différentes tailles : 34B, 7B, 3B, 1,5B, 1,5B-deep et 500M. Ces modèles offrent aux utilisateurs un large éventail de rapports performance-efficacité, permettant aux développeurs de choisir le modèle le mieux adapté à leurs scénarios de déploiement. Alors que les modèles plus petits facilitent le déploiement sur des dispositifs edge aux ressources limitées, le modèle phare 34B surpasse les modèles équivalents de LLaMa de Meta et Qwen d’Alibaba dans les tâches complexes.

Pour sa part, Dr Hakim Hacid, chercheur principal au Centre de Recherche en IA et Sciences Numériques du TII a souligné : « La série Falcon-H1 illustre comment de nouvelles architectures peuvent ouvrir de nouvelles perspectives dans l’entraînement de l’IA tout en mettant en avant le potentiel des modèles ultra-compacts. Cela permet de révolutionner fondamentalement ce qui est possible à la plus petite échelle, permettant une IA puissante sur des dispositifs edge où la confidentialité, l’efficacité et la faible latence sont essentielles. Notre priorité consiste à réduire la complexité sans compromettre les capacités ».

Chaque modèle de la famille Falcon-H1 dépasse des modèles deux fois plus volumineux, établissant ainsi une nouvelle référence en matière de rapport performance-efficacité. Ces modèles excellent également dans les domaines des mathématiques, du raisonnement, de la programmation, de la compréhension de longs contextes et des tâches multilingues.

Impact international

Les modèles ‘Falcon’ alimentent déjà des applications concrètes. En partenariat avec la Fondation Bill & Melinda Gates, Falcon a soutenu le développement d’AgriLLM, une solution qui aide les agriculteurs à prendre des décisions plus avisées dans des conditions climatiques difficiles. L’écosystème Falcon du TII a été téléchargé plus de 55 millions de fois à travers le monde et est largement reconnu comme la famille de modèles d’IA open source la plus puissante et la plus performante à émerger de la région du Moyen-Orient.

Alors que de nombreux modèles d’IA se concentrent sur des cas d’usage consommateurs limités, le TII a choisi de privilégier le développement de modèles fondamentaux, capables de s’adapter aux besoins exigeants de l’industrie, de la recherche et de l’intérêt général, sans compromis sur l’accessibilité. Ces modèles sont conçus pour être appliqués à une grande diversité de scénarios réels, tout en restant accessibles, économes en ressources et adaptables à différents environnements.

Tous les modèles Falcon sont des modèles open source et disponibles sur Hugging Face ainsi que sur FalconLLM.TII.ae, sous la licence TII Falcon, une licence basée sur Apache 2.0, qui encourage un développement de l’IA responsable et éthique.

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.