Ajuste Fino do Llama 3.2 11B com Q-LoRA para Perguntas e Respostas Extrativas

terça-feira, novembro 26, 2024 12:00 AM
8

Modelos de Linguagem de Grande Escala (LLMs) tornaram-se ferramentas essenciais em processamento de linguagem natural, capazes de lidar com uma variedade de tarefas. No entanto, devido ao seu treinamento amplo, eles podem não se destacar em aplicações específicas sem uma adaptação adicional. Técnicas de ajuste fino, como Q-LoRA, permitem que pesquisadores adaptem modelos pré-treinados como o Llama 3.2 11B para tarefas específicas, como perguntas e respostas extrativas. Este artigo descreve o processo de ajuste fino do Llama 3.2 11B usando Q-LoRA no conjunto de dados SQuAD v2, mostrando as melhorias de desempenho alcançadas por meio deste método.

LoRA, ou Adaptação de Baixa Classificação, é uma técnica que introduz novos pesos a um modelo existente sem alterar os parâmetros originais. Ao adicionar pesos de adaptador que ajustam as saídas de certas camadas, o LoRA permite que os modelos mantenham seu conhecimento pré-treinado enquanto adquirem novas capacidades adaptadas a tarefas específicas. Neste experimento, o foco está no ajuste fino do Llama 3.2 11B para perguntas e respostas extrativas, visando extrair segmentos de texto precisos que respondem diretamente às consultas dos usuários, em vez de resumir ou reformular o conteúdo. O experimento foi realizado em uma plataforma Google Colab utilizando uma GPU A100, com a biblioteca Hugging Face Transformers facilitando a implementação.

Os resultados do processo de ajuste fino foram promissores, demonstrando um aumento significativo no desempenho do modelo no conjunto de validação. O score BERT melhorou de 0.6469 para 0.7505, enquanto o score de correspondência exata subiu de 0.116 para 0.418. Essas melhorias indicam que a técnica Q-LoRA adapta efetivamente o modelo Llama 3.2 11B para tarefas de perguntas e respostas extrativas. Este artigo serve como um guia para pesquisadores que desejam aplicar métodos semelhantes a outros modelos e tarefas, destacando o potencial do ajuste fino no campo do processamento de linguagem natural.

Related News

O Laboratório de IA se une à Theta EdgeCloud para aprimorar a educação em IA cover
há um dia
O Laboratório de IA se une à Theta EdgeCloud para aprimorar a educação em IA
O Laboratório de IA, um dos principais provedores de e-learning na Coreia do Sul, recentemente firmou um contrato de vários anos com a Theta EdgeCloud, marcando um passo significativo para aprimorar suas ofertas educacionais em Inteligência Artificial (IA) e Análise de Dados (DA). Esta parceria permite que o Laboratório de IA aproveite os recursos de GPU distribuídos da Theta EdgeCloud, o que facilitará a educação avançada em IA, treinamento de modelos e aplicações de IA generativa. Com um forte foco em experiências práticas e conteúdo interativo, o Laboratório de IA visa oferecer educação de alta qualidade por meio de sua plataforma inovadora, CodingX, reconhecida por sua eficácia no ensino de habilidades em IA e programação globalmente. A colaboração com a Theta EdgeCloud deve trazer várias vantagens para o Laboratório de IA. Ao utilizar recursos de GPU sob demanda, a instituição pode aumentar a flexibilidade do currículo, permitindo a integração perfeita da IA em seus programas educacionais. Além disso, a parceria deve reduzir os custos operacionais por meio da infraestrutura distribuída da Theta, possibilitando a escalabilidade econômica de seus serviços. O mais importante é que a integração de metodologias de aprendizado impulsionadas por IA facilitará experiências de aprendizado personalizadas, adaptadas para atender às necessidades únicas de cada aluno, melhorando assim o desempenho geral. A Theta EdgeCloud tem expandido rapidamente sua base de clientes, recentemente firmando parcerias com instituições de prestígio, como a Universidade Nacional de Seul e a Universidade de Pequim. Esse crescimento destaca a crescente demanda por soluções tecnológicas escaláveis e econômicas no setor educacional. John Choi, CEO do Laboratório de IA, expressou confiança na parceria, destacando a forte reputação da Theta entre as universidades sul-coreanas e seu potencial para expandir significativamente as operações do Laboratório de IA nos próximos anos. Esta colaboração está pronta para atender à crescente demanda por habilidades tecnológicas em um futuro impulsionado por IA, posicionando o Laboratório de IA como um jogador-chave no cenário educacional em evolução.
io.net faz parceria com OpenLedger para aprimorar o desenvolvimento de modelos de IA cover
há um dia
io.net faz parceria com OpenLedger para aprimorar o desenvolvimento de modelos de IA
Nesta semana, a plataforma descentralizada de recursos de GPU, io.net, anunciou uma parceria estratégica com a OpenLedger, uma blockchain de dados especificamente projetada para inteligência artificial (IA). Essa colaboração permitirá que a OpenLedger utilize os recursos globais de computação GPU da io.net, aprimorando sua capacidade de refinar e treinar modelos de IA. Conhecida como a Internet das GPUs, a io.net fornece uma rede poderosa de recursos de GPU distribuídos, permitindo que a OpenLedger acelere o desenvolvimento de seus modelos de IA e capacite os desenvolvedores a criar aplicativos descentralizados (DApps) baseados em IA mais eficientes. De acordo com Tausif Ahmad, vice-presidente de desenvolvimento de negócios da io.net, essa parceria fornecerá à OpenLedger uma infraestrutura confiável para escalar seus modelos de IA e desbloquear novos casos de uso, reforçando sua posição como um provedor inovador no espaço de IA descentralizada. Além de fornecer recursos de GPU, a infraestrutura da io.net suportará a inferência e a hospedagem de modelos de IA, garantindo desempenho e escalabilidade ideais. Espera-se que essa parceria melhore a reputação da OpenLedger como um dos principais provedores de conjuntos de dados confiáveis, alimentando a inovação na interseção entre blockchain e IA. A colaboração visa criar dados de alta qualidade de forma segura e eficiente, enquanto impulsiona a inovação e o desempenho. Um membro da equipe da OpenLedger enfatizou que aproveitar a infraestrutura de GPU da io.net permitirá que os usuários ajustem modelos de IA de forma mais eficiente, levando, em última análise, ao desenvolvimento de modelos de IA confiáveis e explicáveis. Um fator significativo na escolha da OpenLedger pela io.net como seu provedor de recursos de GPU é a solução de computação escalável e econômica oferecida. Essa parceria permitirá que a OpenLedger expanda seus serviços sem as restrições de altos custos associados a provedores de nuvem centralizados. Ao processar conjuntos de dados maiores e desenvolver modelos de IA com eficiência sem precedentes, a OpenLedger pretende ampliar os limites da inovação em IA descentralizada. Em última análise, essa parceria está alinhada com a missão da OpenLedger de promover um ambiente de dados aberto e colaborativo, ao mesmo tempo em que promove a adoção de soluções de IA baseadas em blockchain.
Stratos se une à Cortensor para aprimorar a infraestrutura de IA descentralizada cover
há 2 dias
Stratos se une à Cortensor para aprimorar a infraestrutura de IA descentralizada
Em um desenvolvimento significativo para o cenário de IA descentralizada, a Stratos anunciou uma parceria com a Cortensor, líder em redes de inferência de IA descentralizadas. Esta colaboração visa aprimorar a infraestrutura de IA descentralizada integrando as robustas soluções de armazenamento e streaming descentralizadas da Stratos no inovador ecossistema de IA da Cortensor. A parceria está programada para fornecer armazenamento de dados seguro e escalável, garantindo que tanto as cargas de trabalho de IA públicas quanto privadas possam operar de forma contínua e confiável, melhorando assim o desempenho geral da rede. Uma das principais características desta parceria é a introdução de capacidades de streaming de inferência em tempo real. As APIs avançadas de streaming de vídeo da Stratos permitirão que a Cortensor forneça saídas de inferência de IA instantâneas, facilitando aplicações dinâmicas e tarefas orientadas pelo usuário. Espera-se que essa melhoria otimize o desempenho das cargas de trabalho de IA, uma vez que a infraestrutura de alta capacidade da Stratos melhorará a comunicação de nó para nó, garantindo um fluxo de dados eficiente mesmo em ambientes de alta demanda. Este é um passo crucial para tornar as ferramentas de IA avançadas mais acessíveis e econômicas. Ambas as empresas compartilham uma visão para um futuro de IA descentralizada, com os sistemas de Prova de Inferência (PoI) e Prova de Trabalho Útil (PoUW) da Cortensor validando tarefas e recompensando colaboradores por trabalhos significativos. A Stratos, com sua infraestrutura descentralizada apoiando soluções Web3 e IA, possui mais de 900 nós de armazenamento ativos globalmente e uma capacidade de 21 PB. Esta parceria não apenas exemplifica seu compromisso com a inovação, mas também visa desbloquear novas possibilidades para empresas, desenvolvedores e mineradores orientados pela comunidade, construindo, em última análise, um ecossistema de IA mais inclusivo e escalável. Fique atento para mais atualizações enquanto continuam a expandir os limites das soluções de IA descentralizadas.
Aprimorando a Recordação de Contexto na Geração Aumentada por Recuperação cover
há 5 dias
Aprimorando a Recordação de Contexto na Geração Aumentada por Recuperação
A geração aumentada por recuperação (RAG) emergiu como um método fundamental para integrar grandes modelos de linguagem (LLMs) em aplicações comerciais especializadas, permitindo a infusão de dados proprietários nas respostas do modelo. Apesar de sua eficácia durante a fase de prova de conceito (POC), os desenvolvedores frequentemente enfrentam quedas significativas de precisão ao transitar o RAG para a produção. Esse problema é particularmente pronunciado durante a fase de recuperação, onde o objetivo é buscar com precisão o contexto mais relevante para uma determinada consulta, uma métrica conhecida como recordação de contexto. Este artigo explora estratégias para aprimorar a recordação de contexto por meio da personalização e ajuste fino de modelos de incorporação, melhorando, em última análise, o desempenho do RAG em aplicações do mundo real. O RAG opera em duas etapas principais: recuperação e geração. Na fase de recuperação, o modelo converte texto em vetores, indexa, recupera e reclassifica esses vetores para identificar as melhores correspondências. No entanto, falhas nessa fase podem levar a contextos relevantes perdidos, resultando em uma menor recordação de contexto e saídas de geração menos precisas. Uma solução eficaz é adaptar o modelo de incorporação, que é projetado para entender as relações entre dados textuais, para produzir incorporações específicas para o conjunto de dados em uso. Esse ajuste fino permite que o modelo gere vetores semelhantes para frases semelhantes, aprimorando sua capacidade de recuperar contextos altamente relevantes para a consulta. Para melhorar a recordação de contexto, é essencial preparar um conjunto de dados personalizado que reflita os tipos de consultas que o modelo encontrará. Isso envolve extrair uma variedade de perguntas da base de conhecimento, parafraseá-las para variabilidade e organizá-las por relevância. Além disso, a construção de um conjunto de dados de avaliação ajuda a avaliar o desempenho do modelo em um cenário realista. Ao empregar um Avaliador de Recuperação de Informação, os desenvolvedores podem medir métricas como Recall@k e Precision@k para avaliar a precisão da recuperação. Em última análise, o ajuste fino do modelo de incorporação pode levar a melhorias substanciais na recordação de contexto, garantindo que o RAG permaneça preciso e confiável em ambientes de produção.
VentureMind AI se une à Theta EdgeCloud para aprimorar capacidades de IA e robótica cover
há 6 dias
VentureMind AI se une à Theta EdgeCloud para aprimorar capacidades de IA e robótica
Em um desenvolvimento empolgante para a interseção de IA e blockchain, a VentureMind AI anunciou uma parceria com a Theta EdgeCloud. Esta colaboração visa aproveitar os recursos de computação e streaming descentralizados e de baixa latência da Theta para aprimorar as capacidades da VentureMind AI. Ao integrar o EdgeCloud, a VentureMind AI poderá escalar suas ferramentas de IA, otimizar a renderização de vídeos e oferecer controle de robótica em tempo real, melhorando significativamente suas ofertas de serviços em setores como construção e segurança. Esta parceria marca um passo significativo na criação de um ecossistema abrangente que une inovação em IA com finanças descentralizadas e robótica avançada. A VentureMind AI é uma plataforma pioneira que permite aos usuários criar, cunhar e negociar ferramentas de IA como NFTs, proporcionando uma camada única de propriedade e potencial de renda. A plataforma também apresenta um construtor de Agentes Autônomos personalizado, permitindo que os usuários lancem comunidades tokenizadas e gerenciem atividades de criação de mercado. Desde sua criação em junho de 2023, o EdgeCloud ganhou tração em ambientes acadêmicos e empresariais, com instituições como a Universidade Nacional de Seul e empresas como a GenAI search Liner utilizando sua infraestrutura para avançar na pesquisa e aplicações de IA. Com a integração da Theta EdgeCloud, a VentureMind AI está pronta para redefinir possibilidades nos domínios de IA, robótica e Web3. A parceria facilitará computação escalável para inovação em IA, controle confiável de robótica, processamento de vídeo econômico e integração aprimorada para NFTs e ferramentas autônomas. Fundada por Jermaine Anugwom, a VentureMind AI evoluiu rapidamente de uma coleção de ferramentas de IA especializadas para uma plataforma robusta que incorpora tecnologia blockchain e tokenomics, posicionando-se como líder no emergente cenário do Web3.
Revolucionando a Agricultura com Tecnologia IoT cover
há 6 dias
Revolucionando a Agricultura com Tecnologia IoT
A integração da tecnologia IoT na agricultura está transformando o setor, permitindo que os agricultores tomem decisões informadas e baseadas em dados que aumentam a produtividade e a sustentabilidade. O mercado global de agricultura inteligente está projetado para alcançar US$ 20 bilhões até 2026, impulsionado pela crescente adoção de soluções IoT nas fazendas. Essas tecnologias otimizam vários aspectos do manejo de culturas e gado, ajudando os agricultores a reduzir custos enquanto melhoram os rendimentos e a gestão ambiental. À medida que os dispositivos IoT proliferam, eles oferecem vantagens significativas, incluindo a automação da gestão de recursos e a coleta de dados em tempo real sobre fatores críticos como clima e condições do solo. Dispositivos IoT como estações meteorológicas e sensores de solo desempenham um papel fundamental na agricultura inteligente. As estações meteorológicas fornecem dados essenciais sobre temperatura, umidade e precipitação, permitindo que os agricultores façam ajustes oportunos nos cronogramas de irrigação e plantio. Sensores de solo oferecem insights em tempo real sobre níveis de umidade, otimizando o uso de água e estratégias de fertilização. Além disso, colares de monitoramento de gado garantem a gestão proativa da saúde e localização dos animais. Ao automatizar a irrigação e a distribuição de recursos com base em dados em tempo real, os agricultores podem conservar recursos e melhorar a saúde das culturas, levando, em última análise, ao aumento da lucratividade. A plataforma da Chirp aumenta a eficácia desses dispositivos IoT integrando-os em um sistema coeso gerenciado a partir de um único painel. A incorporação da tecnologia blockchain fortalece ainda mais a gestão de dados, garantindo armazenamento seguro e à prova de adulteração, além da rastreabilidade das vastas quantidades de informações geradas pelos dispositivos IoT. Os mineradores Blackbird da Chirp fornecem conectividade de longo alcance para esses dispositivos, facilitando a transmissão confiável de dados em grandes áreas sem a necessidade de conexões individuais à internet. Essa integração perfeita da tecnologia IoT posiciona a Chirp como um parceiro vital para os agricultores, capacitando-os a enfrentar desafios e aproveitar novas oportunidades no cenário agrícola em evolução.