Q-LoRA를 이용한 추출적 질문 응답을 위한 Llama 3.2 11B 미세 조정

화요일, 11월 26, 2024 12:00 오전
8

대형 언어 모델(LLM)은 자연어 처리에서 필수 도구가 되었으며, 다양한 작업을 처리할 수 있습니다. 그러나 광범위한 훈련으로 인해 특정 응용 프로그램에서 추가적인 적응 없이는 뛰어난 성능을 발휘하지 못할 수 있습니다. Q-LoRA와 같은 미세 조정 기술은 연구자들이 Llama 3.2 11B와 같은 사전 훈련된 모델을 추출적 질문 응답과 같은 특정 작업에 맞게 조정할 수 있도록 합니다. 이 기사는 SQuAD v2 데이터셋에서 Q-LoRA를 사용하여 Llama 3.2 11B를 미세 조정하는 과정을 설명하며, 이 방법을 통해 달성된 성능 향상을 보여줍니다.

LoRA 또는 저순위 적응은 기존 모델에 새로운 가중치를 도입하여 원래 매개변수를 변경하지 않는 기술입니다. 특정 레이어의 출력을 조정하는 어댑터 가중치를 추가함으로써, LoRA는 모델이 사전 훈련된 지식을 유지하면서 특정 작업에 맞게 새로운 기능을 습득할 수 있도록 합니다. 이 실험에서는 Llama 3.2 11B를 추출적 질문 응답을 위해 미세 조정하는 데 중점을 두고, 사용자 쿼리에 직접적으로 답변하는 정확한 텍스트 세그먼트를 추출하는 것을 목표로 합니다. 이 실험은 A100 GPU를 활용한 Google Colab 플랫폼에서 수행되었으며, Hugging Face Transformers 라이브러리가 구현을 지원했습니다.

미세 조정 과정의 결과는 유망했으며, 검증 세트에서 모델 성능이 크게 향상되었습니다. BERT 점수는 0.6469에서 0.7505로 개선되었고, 정확한 일치 점수는 0.116에서 0.418로 상승했습니다. 이러한 향상은 Q-LoRA 기술이 Llama 3.2 11B 모델을 추출적 질문 응답 작업에 효과적으로 적응시킨다는 것을 나타냅니다. 이 기사는 유사한 방법을 다른 모델과 작업에 적용하고자 하는 연구자들을 위한 가이드 역할을 하며, 자연어 처리 분야에서 미세 조정의 잠재력을 강조합니다.

Related News

AI 연구소, AI 교육 강화를 위해 Theta EdgeCloud와 파트너십 체결 cover
하루 전
AI 연구소, AI 교육 강화를 위해 Theta EdgeCloud와 파트너십 체결
AI 연구소는 한국의 선도적인 e-러닝 제공업체로서, 최근 Theta EdgeCloud와 다년간의 계약을 체결하며 인공지능(AI) 및 데이터 분석(DA) 교육 제공을 강화하는 중요한 단계를 밟았습니다. 이 파트너십을 통해 AI 연구소는 Theta EdgeCloud의 분산 GPU 자원을 활용하여 고급 AI 교육, 모델 훈련 및 생성적 AI 애플리케이션을 촉진할 수 있습니다. 실습 경험과 상호작용 콘텐츠에 중점을 두고 AI 연구소는 AI 및 코딩 기술 교육의 효과로 세계적으로 인정받는 혁신적인 플랫폼 CodingX를 통해 고품질 교육을 제공하는 것을 목표로 하고 있습니다. Theta EdgeCloud와의 협력은 AI 연구소에 여러 가지 이점을 가져올 것으로 예상됩니다. 온디맨드 GPU 자원을 활용함으로써 교육 과정의 유연성을 높이고 AI를 교육 프로그램에 원활하게 통합할 수 있습니다. 또한, 이 파트너십은 Theta의 분산 인프라를 통해 운영 비용을 절감하여 서비스의 비용 효율적인 확장을 가능하게 할 것입니다. 가장 중요한 것은 AI 기반 학습 방법론의 통합이 각 학생의 고유한 요구를 충족시키기 위해 개인화된 학습 경험을 촉진하여 전반적인 성과를 향상시킬 것입니다. Theta EdgeCloud는 최근 서울대학교 및 베이징대학교와 같은 저명한 기관과 파트너십을 체결하며 고객 기반을 빠르게 확장하고 있습니다. 이러한 성장은 교육 분야에서 확장 가능하고 비용 효율적인 기술 솔루션에 대한 수요가 증가하고 있음을 강조합니다. AI 연구소의 CEO인 존 최는 이 파트너십에 대한 신뢰를 표명하며, Theta가 한국 대학들 사이에서 강력한 평판을 가지고 있으며 향후 AI 연구소의 운영을 크게 확장할 수 있는 잠재력을 강조했습니다. 이 협력은 AI 주도 미래에서 기술 기술에 대한 증가하는 수요를 충족시킬 준비가 되어 있으며, AI 연구소를 진화하는 교육 환경의 핵심 플레이어로 자리매김하게 할 것입니다.
io.net, AI 모델 개발을 강화하기 위해 OpenLedger와 파트너십 체결 cover
하루 전
io.net, AI 모델 개발을 강화하기 위해 OpenLedger와 파트너십 체결
이번 주, 분산형 GPU 자원 플랫폼 io.net은 인공지능(AI)을 위해 특별히 설계된 데이터 블록체인 OpenLedger와 전략적 파트너십을 발표했습니다. 이 협력은 OpenLedger가 io.net의 글로벌 GPU 컴퓨팅 자원을 활용할 수 있게 하여 AI 모델을 정제하고 훈련하는 능력을 향상시킬 것입니다. GPU의 인터넷으로 알려진 io.net은 분산형 GPU 자원의 강력한 네트워크를 제공하여 OpenLedger가 AI 모델 개발을 가속화하고 개발자들이 보다 효율적인 AI 기반 분산 애플리케이션(DApps)을 만들 수 있도록 합니다. io.net의 비즈니스 개발 부사장인 Tausif Ahmad에 따르면, 이 파트너십은 OpenLedger에 AI 모델을 확장할 수 있는 신뢰할 수 있는 인프라를 제공하고 새로운 사용 사례를 열어주어 분산형 AI 분야에서 혁신적인 제공자로서의 입지를 강화할 것입니다. GPU 자원 제공 외에도, io.net의 인프라는 AI 모델의 추론 및 호스팅을 지원하여 최적의 성능과 확장성을 보장합니다. 이 파트너십은 OpenLedger의 신뢰할 수 있는 데이터셋 제공자로서의 명성을 높이고 블록체인과 AI의 교차점에서 혁신을 촉진할 것으로 예상됩니다. 협력의 목표는 안전하고 효율적으로 고품질 데이터를 생성하면서 혁신과 성능을 주도하는 것입니다. OpenLedger의 팀원은 io.net의 GPU 인프라를 활용하면 사용자가 AI 모델을 보다 효율적으로 미세 조정할 수 있어 궁극적으로 신뢰할 수 있고 설명 가능한 AI 모델 개발로 이어질 것이라고 강조했습니다. OpenLedger가 io.net을 GPU 자원 제공자로 선택한 중요한 요소는 비용 효율적이고 확장 가능한 컴퓨팅 솔루션입니다. 이 파트너십은 OpenLedger가 중앙 집중식 클라우드 제공자와 관련된 높은 비용의 제약 없이 서비스를 확장할 수 있게 합니다. 더 큰 데이터셋을 처리하고 전례 없는 효율성으로 AI 모델을 개발함으로써 OpenLedger는 분산형 AI 혁신의 경계를 넓히고자 합니다. 궁극적으로 이 파트너십은 OpenLedger의 개방적이고 협력적인 데이터 환경을 조성하고 블록체인 기반 AI 솔루션의 채택을 촉진하는 사명과 일치합니다.
스트라토스, 분산형 AI 인프라 향상을 위한 코텐서와 파트너십 체결 cover
2일 전
스트라토스, 분산형 AI 인프라 향상을 위한 코텐서와 파트너십 체결
분산형 AI 분야에서 중요한 발전이 이루어졌습니다. 스트라토스는 분산형 AI 추론 네트워크의 선두주자인 코텐서와 파트너십을 체결했다고 발표했습니다. 이번 협업은 스트라토스의 강력한 분산형 저장 및 스트리밍 솔루션을 코텐서의 혁신적인 AI 생태계에 통합하여 분산형 AI 인프라를 향상시키는 것을 목표로 하고 있습니다. 이 파트너십은 안전하고 확장 가능한 데이터 저장을 제공하여 공공 및 개인 AI 작업이 원활하고 신뢰성 있게 운영될 수 있도록 하여 전체 네트워크 성능을 개선할 것입니다. 이번 파트너십의 주요 특징 중 하나는 실시간 추론 스트리밍 기능의 도입입니다. 스트라토스의 고급 비디오 스트리밍 API는 코텐서가 즉각적인 AI 추론 출력을 제공할 수 있도록 하여 동적 애플리케이션 및 사용자 주도 작업을 촉진합니다. 이 향상은 AI 작업의 성능을 최적화할 것으로 예상되며, 스트라토스의 고처리량 인프라는 노드 간 통신을 개선하여 높은 수요 환경에서도 효율적인 데이터 흐름을 보장합니다. 이는 고급 AI 도구를 보다 접근 가능하고 비용 효율적으로 만드는 중요한 단계입니다. 두 회사는 코텐서의 추론 증명(Proof of Inference, PoI) 및 유용한 작업 증명(Proof of Useful Work, PoUW) 시스템을 통해 작업을 검증하고 기여자에게 의미 있는 작업에 대한 보상을 제공하는 분산형 AI 미래에 대한 비전을 공유하고 있습니다. 스트라토스는 Web3 및 AI 솔루션을 지원하는 분산형 인프라를 갖추고 있으며, 900개 이상의 활성 글로벌 저장 노드와 21PB의 용량을 자랑합니다. 이 파트너십은 혁신에 대한 그들의 헌신을 보여줄 뿐만 아니라 기업, 개발자 및 커뮤니티 주도 채굴자들을 위한 새로운 가능성을 열어 더 포괄적이고 확장 가능한 AI 생태계를 구축하는 것을 목표로 하고 있습니다. 분산형 AI 솔루션의 경계를 계속해서 넓혀가는 그들의 추가 업데이트를 기대해 주세요.
검색 보강 생성에서 맥락 회상 향상 cover
5일 전
검색 보강 생성에서 맥락 회상 향상
검색 보강 생성(RAG)은 대규모 언어 모델(LLM)을 전문 비즈니스 애플리케이션에 통합하는 중요한 방법으로 부상하였으며, 모델 응답에 독점 데이터를 주입할 수 있게 해줍니다. 개념 증명(POC) 단계에서의 효과에도 불구하고, 개발자들은 RAG를 프로덕션으로 전환할 때 종종 상당한 정확도 저하에 직면합니다. 이 문제는 주어진 쿼리에 대해 가장 관련성 높은 맥락을 정확하게 가져오는 것을 목표로 하는 검색 단계에서 특히 두드러지며, 이를 맥락 회상(context recall)이라고 합니다. 이 기사는 임베딩 모델을 사용자 정의하고 미세 조정하여 맥락 회상을 향상시키는 전략을 탐구하며, 궁극적으로 RAG의 실제 애플리케이션에서의 성능을 개선합니다. RAG는 검색과 생성의 두 가지 주요 단계에서 작동합니다. 검색 단계에서 모델은 텍스트를 벡터로 변환하고, 인덱싱하며, 이러한 벡터를 검색하고 재순위하여 상위 일치를 식별합니다. 그러나 이 단계에서의 실패는 관련 맥락을 놓치게 되어 맥락 회상이 낮아지고 생성 출력이 덜 정확해질 수 있습니다. 효과적인 해결책 중 하나는 텍스트 데이터 간의 관계를 이해하도록 설계된 임베딩 모델을 조정하여 사용 중인 데이터 세트에 특정한 임베딩을 생성하는 것입니다. 이 미세 조정은 모델이 유사한 문장에 대해 유사한 벡터를 생성할 수 있게 하여, 쿼리에 대해 매우 관련성 높은 맥락을 검색하는 능력을 향상시킵니다. 맥락 회상을 개선하기 위해서는 모델이 마주칠 쿼리 유형을 반영하는 맞춤형 데이터 세트를 준비하는 것이 필수적입니다. 이는 지식 기반에서 다양한 질문을 추출하고, 변동성을 위해 이를 패러프레이징하며, 관련성에 따라 정리하는 것을 포함합니다. 또한, 평가 데이터 세트를 구성하여 모델의 성능을 현실적인 환경에서 평가하는 데 도움이 됩니다. 정보 검색 평가기를 사용하여 개발자는 Recall@k 및 Precision@k와 같은 메트릭을 측정하여 검색 정확도를 평가할 수 있습니다. 궁극적으로 임베딩 모델을 미세 조정하면 맥락 회상에서 상당한 개선을 가져올 수 있으며, RAG가 프로덕션 환경에서 정확하고 신뢰할 수 있도록 보장합니다.
벤처마인드 AI, AI 및 로봇 기술 강화를 위해 세타 엣지클라우드와 파트너십 체결 cover
6일 전
벤처마인드 AI, AI 및 로봇 기술 강화를 위해 세타 엣지클라우드와 파트너십 체결
AI와 블록체인의 교차점에서 흥미로운 발전이 이루어졌습니다. 벤처마인드 AI는 세타 엣지클라우드와의 파트너십을 발표했습니다. 이 협력은 세타의 분산형 저지연 컴퓨팅 및 스트리밍 자원을 활용하여 벤처마인드 AI의 능력을 강화하는 것을 목표로 하고 있습니다. 엣지클라우드를 통합함으로써 벤처마인드 AI는 AI 도구를 확장하고, 비디오 렌더링을 최적화하며, 실시간 로봇 제어를 제공할 수 있어 건설 및 보안과 같은 분야에서 서비스 제공을 크게 개선할 수 있습니다. 이 파트너십은 AI 혁신과 분산 금융 및 고급 로봇 기술을 결합하는 포괄적인 생태계를 만드는 데 중요한 이정표가 됩니다. 벤처마인드 AI는 사용자가 AI 도구를 NFT로 생성, 발행 및 거래할 수 있는 선구적인 플랫폼으로, 독특한 소유권 및 수익 잠재력을 제공합니다. 이 플랫폼은 사용자들이 토큰화된 커뮤니티를 시작하고 시장 조성 활동을 관리할 수 있도록 하는 맞춤형 자율 에이전트 빌더도 제공합니다. 2023년 6월 출범 이후, 엣지클라우드는 서울대학교와 GenAI 검색 라인과 같은 기관들이 AI 연구 및 응용을 발전시키기 위해 그 인프라를 활용하면서 학계와 기업 환경에서 주목받고 있습니다. 세타 엣지클라우드와의 통합을 통해 벤처마인드 AI는 AI, 로봇 및 웹3 분야에서 가능성을 재정의할 준비가 되어 있습니다. 이 파트너십은 AI 혁신을 위한 확장 가능한 컴퓨팅, 신뢰할 수 있는 로봇 제어, 비용 효율적인 비디오 처리 및 NFT 및 자율 도구에 대한 향상된 통합을 촉진할 것입니다. Jermaine Anugwom이 설립한 벤처마인드 AI는 전문 AI 도구의 집합에서 블록체인 기술과 토큰 경제를 통합한 강력한 플랫폼으로 빠르게 발전하여 신흥 웹3 환경에서 선두주자로 자리 잡고 있습니다.
IoT 기술로 농업 혁신하기 cover
6일 전
IoT 기술로 농업 혁신하기
농업에 IoT 기술을 통합하는 것은 이 분야를 변화시키고 있으며, 농부들이 생산성과 지속 가능성을 향상시키는 데이터 기반의 정보에 입각한 결정을 내릴 수 있도록 하고 있습니다. 전 세계 스마트 농업 시장은 2026년까지 200억 달러에 이를 것으로 예상되며, 이는 농장에서 IoT 솔루션의 채택이 증가함에 따라 추진되고 있습니다. 이러한 기술들은 작물 및 가축 관리의 다양한 측면을 최적화하여 농부들이 비용을 절감하면서 수확량과 환경 관리 능력을 향상시킬 수 있도록 돕습니다. IoT 장치가 확산됨에 따라 자원 관리의 자동화 및 날씨와 토양 조건과 같은 중요한 요소에 대한 실시간 데이터 수집을 포함한 상당한 이점을 제공합니다. 날씨 관측소와 토양 센서와 같은 IoT 장치는 스마트 농업에서 중요한 역할을 합니다. 날씨 관측소는 온도, 습도 및 강수량에 대한 필수 데이터를 제공하여 농부들이 관개 및 파종 일정에 적시에 조정할 수 있도록 합니다. 토양 센서는 수분 수준에 대한 실시간 통찰력을 제공하여 물 사용 및 비료 전략을 최적화합니다. 또한, 가축 모니터링 칼라는 동물 건강 및 위치의 사전 관리를 보장합니다. 실시간 데이터를 기반으로 관개 및 자원 분배를 자동화함으로써 농부들은 자원을 절약하고 작물 건강을 향상시켜 궁극적으로 수익성을 증가시킬 수 있습니다. Chirp의 플랫폼은 이러한 IoT 장치의 효과를 향상시키기 위해 이를 단일 대시보드에서 관리되는 통합 시스템으로 통합합니다. 블록체인 기술의 도입은 데이터 관리의 강화를 더욱 촉진하여 IoT 장치에서 생성되는 방대한 양의 정보를 안전하고 변조가 불가능한 방식으로 저장하고 추적할 수 있도록 합니다. Chirp의 블랙버드 마이너는 이러한 장치에 장거리 연결성을 제공하여 개별 인터넷 연결 없이도 넓은 지역에서 신뢰할 수 있는 데이터 전송을 용이하게 합니다. IoT 기술의 이러한 원활한 통합은 Chirp를 농부들에게 중요한 파트너로 자리매김하게 하여 그들이 도전 과제에 대응하고 변화하는 농업 환경에서 새로운 기회를 활용할 수 있도록 합니다.