Ajustement fin de Llama 3.2 11B avec Q-LoRA pour la réponse à des questions extractives

mardi, novembre 26, 2024 12:00 AM
8

Les grands modèles de langage (LLM) sont devenus des outils essentiels dans le traitement du langage naturel, capables de gérer une variété de tâches. Cependant, en raison de leur formation large, ils peuvent ne pas exceller dans des applications spécifiques sans adaptation supplémentaire. Les techniques d’ajustement fin, telles que Q-LoRA, permettent aux chercheurs d’adapter des modèles pré-entraînés comme Llama 3.2 11B pour des tâches particulières, telles que la réponse à des questions extractives. Cet article décrit le processus d’ajustement fin de Llama 3.2 11B en utilisant Q-LoRA sur le jeu de données SQuAD v2, mettant en avant les améliorations de performance obtenues grâce à cette méthode.

LoRA, ou Low-Rank Adaptation, est une technique qui introduit de nouveaux poids dans un modèle existant sans modifier les paramètres d’origine. En ajoutant des poids d’adaptateur qui ajustent les sorties de certaines couches, LoRA permet aux modèles de conserver leurs connaissances pré-entraînées tout en acquérant de nouvelles capacités adaptées à des tâches spécifiques. Dans cette expérience, l’accent est mis sur l’ajustement fin de Llama 3.2 11B pour la réponse à des questions extractives, visant à extraire des segments de texte précis qui répondent directement aux requêtes des utilisateurs, plutôt que de résumer ou de reformuler le contenu. L’expérience a été réalisée sur une plateforme Google Colab utilisant un GPU A100, avec la bibliothèque Hugging Face Transformers facilitant la mise en œuvre.

Les résultats du processus d’ajustement fin étaient prometteurs, montrant une amélioration significative des performances du modèle sur l’ensemble de validation. Le score BERT est passé de 0,6469 à 0,7505, tandis que le score de correspondance exacte est passé de 0,116 à 0,418. Ces améliorations indiquent que la technique Q-LoRA adapte efficacement le modèle Llama 3.2 11B pour les tâches de réponse à des questions extractives. Cet article sert de guide pour les chercheurs cherchant à appliquer des méthodes similaires à d’autres modèles et tâches, soulignant le potentiel de l’ajustement fin dans le domaine du traitement du langage naturel.

Related News

Le laboratoire d'IA s'associe à Theta EdgeCloud pour améliorer l'éducation en IA cover
il y a un jour
Le laboratoire d'IA s'associe à Theta EdgeCloud pour améliorer l'éducation en IA
Le laboratoire d'IA, un fournisseur d'e-learning de premier plan en Corée du Sud, a récemment signé un accord pluriannuel avec Theta EdgeCloud, marquant une étape significative dans l'amélioration de ses offres éducatives en intelligence artificielle (IA) et en analyse de données (AD). Ce partenariat permet au laboratoire d'IA de tirer parti des ressources GPU distribuées de Theta EdgeCloud, ce qui facilitera l'éducation avancée en IA, l'entraînement de modèles et les applications d'IA générative. Avec un fort accent sur les expériences pratiques et le contenu interactif, le laboratoire d'IA vise à offrir une éducation de haute qualité grâce à sa plateforme innovante, CodingX, reconnue pour son efficacité dans l'enseignement des compétences en IA et en codage à l'échelle mondiale. La collaboration avec Theta EdgeCloud devrait apporter plusieurs avantages au laboratoire d'IA. En utilisant des ressources GPU à la demande, l'institution peut améliorer la flexibilité du programme, permettant une intégration transparente de l'IA dans ses programmes éducatifs. De plus, le partenariat devrait réduire les coûts opérationnels grâce à l'infrastructure distribuée de Theta, permettant une montée en échelle rentable de leurs services. Plus important encore, l'intégration de méthodologies d'apprentissage pilotées par l'IA facilitera des expériences d'apprentissage personnalisées, adaptées aux besoins uniques de chaque étudiant, améliorant ainsi la performance globale. Theta EdgeCloud a rapidement élargi sa base de clients, s'associant récemment à des institutions prestigieuses telles que l'Université nationale de Séoul et l'Université de Pékin. Cette croissance souligne la demande croissante de solutions technologiques évolutives et rentables dans le secteur de l'éducation. John Choi, PDG du laboratoire d'IA, a exprimé sa confiance dans le partenariat, soulignant la forte réputation de Theta parmi les universités sud-coréennes et son potentiel à élargir considérablement les opérations du laboratoire d'IA dans les années à venir. Cette collaboration est prête à répondre à la demande croissante de compétences technologiques dans un avenir piloté par l'IA, positionnant le laboratoire d'IA comme un acteur clé dans le paysage éducatif en évolution.
io.net s'associe à OpenLedger pour améliorer le développement de modèles d'IA cover
il y a un jour
io.net s'associe à OpenLedger pour améliorer le développement de modèles d'IA
Cette semaine, la plateforme de ressources GPU distribuées et décentralisées io.net a annoncé un partenariat stratégique avec OpenLedger, une blockchain de données spécifiquement conçue pour l'intelligence artificielle (IA). Cette collaboration permettra à OpenLedger d'utiliser les ressources de calcul GPU mondiales d'io.net, améliorant ainsi sa capacité à affiner et à former des modèles d'IA. Connue sous le nom d'Internet des GPU, io.net fournit un puissant réseau de ressources GPU distribuées, permettant à OpenLedger d'accélérer le développement de ses modèles d'IA et permettant aux développeurs de créer des applications décentralisées (DApps) basées sur l'IA plus efficaces. Selon Tausif Ahmad, vice-président du développement commercial chez io.net, ce partenariat fournira à OpenLedger une infrastructure fiable pour faire évoluer ses modèles d'IA et débloquer de nouveaux cas d'utilisation, renforçant ainsi sa position en tant que fournisseur innovant dans le domaine de l'IA décentralisée. En plus de fournir des ressources GPU, l'infrastructure d'io.net soutiendra l'inférence et l'hébergement de modèles d'IA, garantissant des performances et une scalabilité optimales. Ce partenariat devrait renforcer la réputation d'OpenLedger en tant que fournisseur de jeux de données fiables, alimentant l'innovation à l'intersection de la blockchain et de l'IA. La collaboration vise à créer des données de haute qualité de manière sécurisée et efficace tout en stimulant l'innovation et la performance. Un membre de l'équipe d'OpenLedger a souligné que tirer parti de l'infrastructure GPU d'io.net permettra aux utilisateurs de peaufiner les modèles d'IA plus efficacement, conduisant finalement au développement de modèles d'IA fiables et explicables. Un facteur significatif dans le choix d'OpenLedger d'io.net comme fournisseur de ressources GPU est les solutions de calcul rentables et évolutives proposées. Ce partenariat permettra à OpenLedger d'élargir ses services sans les contraintes de coûts élevés associés aux fournisseurs de cloud centralisés. En traitant des ensembles de données plus volumineux et en développant des modèles d'IA avec une efficacité sans précédent, OpenLedger vise à repousser les limites de l'innovation en IA décentralisée. En fin de compte, ce partenariat s'aligne sur la mission d'OpenLedger de favoriser un environnement de données ouvert et collaboratif tout en promouvant l'adoption de solutions d'IA alimentées par la blockchain.
Stratos s'associe à Cortensor pour améliorer l'infrastructure AI décentralisée cover
il y a 2 jours
Stratos s'associe à Cortensor pour améliorer l'infrastructure AI décentralisée
Dans un développement significatif pour le paysage de l'IA décentralisée, Stratos a annoncé un partenariat avec Cortensor, un leader des réseaux d'inférence AI décentralisés. Cette collaboration vise à améliorer l'infrastructure AI décentralisée en intégrant les solutions de stockage et de streaming décentralisées robustes de Stratos dans l'écosystème AI innovant de Cortensor. Le partenariat est destiné à fournir un stockage de données sécurisé et évolutif, garantissant que les charges de travail AI publiques et privées peuvent fonctionner de manière transparente et fiable, améliorant ainsi la performance globale du réseau. L'une des caractéristiques clés de ce partenariat est l'introduction de capacités de streaming d'inférence en temps réel. Les API de streaming vidéo avancées de Stratos permettront à Cortensor de délivrer des résultats d'inférence AI instantanés, facilitant des applications dynamiques et des tâches pilotées par les utilisateurs. Cette amélioration devrait optimiser les performances des charges de travail AI, car l'infrastructure à haut débit de Stratos améliorera la communication de nœud à nœud, garantissant un flux de données efficace même dans des environnements à forte demande. C'est une étape cruciale vers la rendre les outils AI avancés plus accessibles et rentables. Les deux entreprises partagent une vision pour un avenir AI décentralisé, avec les systèmes de Preuve d'Inference (PoI) et de Preuve de Travail Utile (PoUW) de Cortensor validant les tâches et récompensant les contributeurs pour un travail significatif. Stratos, avec son infrastructure décentralisée soutenant les solutions Web3 et AI, dispose de plus de 900 nœuds de stockage actifs dans le monde et d'une capacité de 21 To. Ce partenariat illustre non seulement leur engagement envers l'innovation, mais vise également à débloquer de nouvelles possibilités pour les entreprises, les développeurs et les mineurs communautaires, construisant finalement un écosystème AI plus inclusif et évolutif. Restez à l'écoute pour d'autres mises à jour alors qu'ils continuent à repousser les limites des solutions AI décentralisées.
Améliorer le rappel de contexte dans la génération augmentée par récupération cover
il y a 5 jours
Améliorer le rappel de contexte dans la génération augmentée par récupération
La génération augmentée par récupération (RAG) est devenue une méthode essentielle pour intégrer de grands modèles de langage (LLM) dans des applications commerciales spécialisées, permettant l'infusion de données propriétaires dans les réponses du modèle. Malgré son efficacité lors de la phase de preuve de concept (POC), les développeurs rencontrent souvent des baisses significatives de précision lors de la transition de RAG vers la production. Ce problème est particulièrement prononcé durant la phase de récupération, où l'objectif est de récupérer avec précision le contexte le plus pertinent pour une requête donnée, une métrique connue sous le nom de rappel de contexte. Cet article explore des stratégies pour améliorer le rappel de contexte en personnalisant et en ajustant les modèles d'embedding, améliorant ainsi les performances de RAG dans des applications réelles. RAG fonctionne en deux étapes principales : récupération et génération. Dans la phase de récupération, le modèle convertit le texte en vecteurs, indexe, récupère et re-classe ces vecteurs pour identifier les meilleures correspondances. Cependant, des échecs dans cette phase peuvent entraîner des contextes pertinents manqués, ce qui entraîne un rappel de contexte plus faible et des sorties de génération moins précises. Une solution efficace consiste à adapter le modèle d'embedding, qui est conçu pour comprendre les relations entre les données textuelles, afin de produire des embeddings spécifiques au jeu de données utilisé. Cet ajustement permet au modèle de générer des vecteurs similaires pour des phrases similaires, améliorant ainsi sa capacité à récupérer un contexte hautement pertinent pour la requête. Pour améliorer le rappel de contexte, il est essentiel de préparer un jeu de données sur mesure qui reflète les types de requêtes que le modèle rencontrera. Cela implique d'extraire une gamme diversifiée de questions de la base de connaissances, de les reformuler pour la variabilité et de les organiser par pertinence. De plus, la construction d'un jeu de données d'évaluation aide à évaluer les performances du modèle dans un cadre réaliste. En utilisant un évaluateur de récupération d'information, les développeurs peuvent mesurer des métriques telles que Recall@k et Precision@k pour évaluer la précision de la récupération. En fin de compte, l'ajustement du modèle d'embedding peut entraîner des améliorations substantielles du rappel de contexte, garantissant que RAG reste précis et fiable dans les environnements de production.
VentureMind AI s'associe à Theta EdgeCloud pour améliorer les capacités d'IA et de robotique cover
il y a 6 jours
VentureMind AI s'associe à Theta EdgeCloud pour améliorer les capacités d'IA et de robotique
Dans un développement passionnant à l'intersection de l'IA et de la blockchain, VentureMind AI a annoncé un partenariat avec Theta EdgeCloud. Cette collaboration vise à tirer parti des ressources de calcul et de streaming décentralisées et à faible latence de Theta pour améliorer les capacités de VentureMind AI. En intégrant EdgeCloud, VentureMind AI pourra évoluer ses outils d'IA, optimiser le rendu vidéo et offrir un contrôle en temps réel de la robotique, améliorant ainsi considérablement ses offres de services dans des secteurs tels que la construction et la sécurité. Ce partenariat marque une étape importante dans la création d'un écosystème complet qui fusionne l'innovation en IA avec la finance décentralisée et la robotique avancée. VentureMind AI est une plateforme pionnière qui permet aux utilisateurs de créer, frapper et échanger des outils d'IA sous forme de NFT, offrant une couche unique de propriété et de potentiel de revenus. La plateforme propose également un constructeur d'agent autonome personnalisé, permettant aux utilisateurs de lancer des communautés tokenisées et de gérer des activités de création de marché. Depuis sa création en juin 2023, EdgeCloud a gagné en traction tant dans les milieux académiques qu'entrepreneuriaux, avec des institutions comme l'Université nationale de Séoul et des entreprises telles que GenAI search Liner utilisant son infrastructure pour faire avancer la recherche et les applications en IA. Avec l'intégration de Theta EdgeCloud, VentureMind AI est prêt à redéfinir les possibilités dans les domaines de l'IA, de la robotique et du Web3. Le partenariat facilitera un calcul évolutif pour l'innovation en IA, un contrôle fiable de la robotique, un traitement vidéo économique et une intégration améliorée pour les NFT et les outils autonomes. Fondée par Jermaine Anugwom, VentureMind AI a rapidement évolué d'une collection d'outils d'IA spécialisés à une plateforme robuste qui intègre la technologie blockchain et la tokenomics, se positionnant comme un leader dans le paysage émergent du Web3.
Révolutionner l'agriculture avec la technologie IoT cover
il y a 6 jours
Révolutionner l'agriculture avec la technologie IoT
L'intégration de la technologie IoT dans l'agriculture transforme le secteur, permettant aux agriculteurs de prendre des décisions éclairées et basées sur des données qui améliorent la productivité et la durabilité. Le marché mondial de l'agriculture intelligente devrait atteindre 20 milliards de dollars d'ici 2026, soutenu par l'adoption croissante des solutions IoT dans les exploitations agricoles. Ces technologies optimisent divers aspects de la gestion des cultures et du bétail, aidant les agriculteurs à réduire les coûts tout en améliorant les rendements et la gestion environnementale. À mesure que les dispositifs IoT se multiplient, ils offrent des avantages significatifs, notamment l'automatisation de la gestion des ressources et la collecte de données en temps réel sur des facteurs critiques tels que les conditions météorologiques et du sol. Les dispositifs IoT tels que les stations météorologiques et les capteurs de sol jouent un rôle essentiel dans l'agriculture intelligente. Les stations météorologiques fournissent des données essentielles sur la température, l'humidité et les précipitations, permettant aux agriculteurs d'apporter des ajustements opportuns à l'irrigation et aux calendriers de plantation. Les capteurs de sol offrent des informations en temps réel sur les niveaux d'humidité, optimisant l'utilisation de l'eau et les stratégies de fertilisation. De plus, les colliers de surveillance du bétail garantissent une gestion proactive de la santé et de la localisation des animaux. En automatisant l'irrigation et la distribution des ressources en fonction des données en temps réel, les agriculteurs peuvent conserver les ressources et améliorer la santé des cultures, ce qui conduit finalement à une rentabilité accrue. La plateforme de Chirp améliore l'efficacité de ces dispositifs IoT en les intégrant dans un système cohérent géré depuis un tableau de bord unique. L'incorporation de la technologie blockchain renforce encore la gestion des données, garantissant un stockage sécurisé et inviolable et une traçabilité des vastes quantités d'informations générées par les dispositifs IoT. Les mineurs Blackbird de Chirp fournissent une connectivité à longue portée pour ces dispositifs, facilitant la transmission fiable des données sur de grandes zones sans avoir besoin de connexions Internet individuelles. Cette intégration transparente de la technologie IoT positionne Chirp comme un partenaire vital pour les agriculteurs, leur permettant de relever des défis et de tirer parti de nouvelles opportunités dans le paysage agricole en évolution.