Q-LoRA를 이용한 추출적 질문 응답을 위한 Llama 3.2 11B 미세 조정

화요일, 11월 26, 2024 12:00 오전
232

대형 언어 모델(LLM)은 자연어 처리에서 필수 도구가 되었으며, 다양한 작업을 처리할 수 있습니다. 그러나 광범위한 훈련으로 인해 특정 응용 프로그램에서 추가적인 적응 없이는 뛰어난 성능을 발휘하지 못할 수 있습니다. Q-LoRA와 같은 미세 조정 기술은 연구자들이 Llama 3.2 11B와 같은 사전 훈련된 모델을 추출적 질문 응답과 같은 특정 작업에 맞게 조정할 수 있도록 합니다. 이 기사는 SQuAD v2 데이터셋에서 Q-LoRA를 사용하여 Llama 3.2 11B를 미세 조정하는 과정을 설명하며, 이 방법을 통해 달성된 성능 향상을 보여줍니다.

LoRA 또는 저순위 적응은 기존 모델에 새로운 가중치를 도입하여 원래 매개변수를 변경하지 않는 기술입니다. 특정 레이어의 출력을 조정하는 어댑터 가중치를 추가함으로써, LoRA는 모델이 사전 훈련된 지식을 유지하면서 특정 작업에 맞게 새로운 기능을 습득할 수 있도록 합니다. 이 실험에서는 Llama 3.2 11B를 추출적 질문 응답을 위해 미세 조정하는 데 중점을 두고, 사용자 쿼리에 직접적으로 답변하는 정확한 텍스트 세그먼트를 추출하는 것을 목표로 합니다. 이 실험은 A100 GPU를 활용한 Google Colab 플랫폼에서 수행되었으며, Hugging Face Transformers 라이브러리가 구현을 지원했습니다.

미세 조정 과정의 결과는 유망했으며, 검증 세트에서 모델 성능이 크게 향상되었습니다. BERT 점수는 0.6469에서 0.7505로 개선되었고, 정확한 일치 점수는 0.116에서 0.418로 상승했습니다. 이러한 향상은 Q-LoRA 기술이 Llama 3.2 11B 모델을 추출적 질문 응답 작업에 효과적으로 적응시킨다는 것을 나타냅니다. 이 기사는 유사한 방법을 다른 모델과 작업에 적용하고자 하는 연구자들을 위한 가이드 역할을 하며, 자연어 처리 분야에서 미세 조정의 잠재력을 강조합니다.

Related News

CUDOS 인터클라우드, 원클릭 템플릿으로 AI 배포 혁신 cover
2일 전
CUDOS 인터클라우드, 원클릭 템플릿으로 AI 배포 혁신
분산 컴퓨팅의 중요한 발전으로, CUDOS 인터클라우드는 AI 애플리케이션 배포를 간소화하는 원클릭 템플릿을 도입했습니다. 이 혁신적인 접근 방식은 접근성과 사용성을 중시하여 개발자들이 최소한의 노력으로 애플리케이션을 시작할 수 있도록 합니다. AI 인프라와 관련된 전통적인 복잡성, 즉 의존성 및 공급업체 종속성을 없애면서 CUDOS 인터클라우드는 KYC 또는 가입 없이 즉각적인 배포를 가능하게 합니다. 사용자는 자신의 디지털 지갑을 연결하고 몇 초 만에 시작할 수 있으며, 이는 빠르게 변화하는 AI 및 Web3 환경에서 신속하게 반복해야 하는 팀에 특히 유리합니다. CUDOS 인터클라우드 플랫폼은 이제 AI 개발자와 교육자를 포함한 다양한 사용자를 위해 맞춤화된 즉시 시작할 수 있는 애플리케이션의 다양한 카탈로그를 자랑합니다. 주요 제공 항목으로는 개인 실험을 위한 JupyterLab, 협업 환경을 위한 JupyterHub, 대규모 언어 모델을 제공하기 위한 vLLM이 있습니다. 또한, Ollama와 같은 도구는 초보자를 위한 사용자 친화적인 인터페이스를 제공하며, OpenManus는 에이전틱 AI 어시스턴트의 잠재력을 보여줍니다. 이러한 애플리케이션은 분산 AI 준비 스택을 위한 강력한 기반을 형성하여 자금이 부족한 팀과 전 세계 연구자들의 접근성과 확장성을 향상시킵니다. 앞으로 CUDOS 인터클라우드는 더 많은 오픈 소스 도구와 기업 준비 솔루션으로 앱 카탈로그를 확장할 계획입니다. 이 플랫폼은 Web3 API와의 통합을 심화하고 스마트 계약 기반 자원 프로비저닝을 지원하는 것을 목표로 하고 있습니다. 분산 애플리케이션의 환경이 진화함에 따라 원클릭 템플릿은 사용자와 기본 인프라 간의 중요한 인터페이스 역할을 하여 AI 경제의 성장을 이끌 것입니다. CUDOS 인터클라우드는 사용자가 미래의 템플릿과 기능에 대한 아이디어를 공유하도록 초대하여 분산 컴퓨팅의 혁신을 위한 협력적인 환경을 조성합니다.
CUDOS 인터클라우드: AI를 위한 지속 가능한 컴퓨팅의 선구자 cover
3일 전
CUDOS 인터클라우드: AI를 위한 지속 가능한 컴퓨팅의 선구자
CUDOS 인터클라우드는 인공지능 초지능 동맹의 일환으로 지속 가능한 컴퓨팅의 새로운 시대를 선도하고 있습니다. 이 회사는 친환경 컴퓨팅 관행에 중점을 두어 AI 인프라의 지형을 재정의하는 것을 목표로 하고 있습니다. 2025년 4월 24일, CUDOS는 Peace One Day #Ai2Peace 행사에 참여하여 CEO 매트 호킨스와 영업 부사장 피트 힐이 평화롭고 지속 가능한 미래를 조성하는 데 있어 분산 AI 인프라의 중요성에 대해 논의할 것입니다. 이 이니셔티브는 환경 책임을 우선시하는 공정하고 개방적인 AI 생태계를 구축할 필요성을 강조합니다. 전통적인 클라우드 컴퓨팅은 상당한 환경 영향을 미치며, 단일 1MW 데이터 센터는 매년 수백만 킬로와트시의 전기와 방대한 양의 물을 소비합니다. 이러한 중앙 집중식 인프라의 탄소 발자국은 막대하며, 구글의 데이터 운영이 2024년 단독으로 27 테라와트시의 에너지를 소비한 사실이 이를 입증합니다. CUDOS 인터클라우드는 기존 데이터 센터를 활용하고 추가 자원 없이 용량을 최적화하여 이러한 비효율성을 해결합니다. 이 접근 방식은 비용을 절감할 뿐만 아니라 새로운 인프라 개발과 관련된 탄소 발자국을 최소화합니다. CUDOS 인터클라우드는 100% 재생 가능 에너지로 운영되며, GPU 중심 클러스터가 지속 가능한 관행을 활용하도록 보장하여 지속 가능성에 전념하고 있습니다. 이 회사는 기존 데이터 센터의 효율성을 극대화하고 낭비된 에너지를 생산적으로 활용함으로써 상당한 비용을 절감했습니다. Stripe Climate 프로그램과 같은 이니셔티브에 참여하고 탄소 제거 프로젝트에 자원을 할당함으로써 CUDOS는 지속 가능성에 대한 주장을 하는 것에 그치지 않고 실제로 더 푸른 미래를 위해 노력하고 있습니다. 이러한 헌신은 CUDOS를 전통적인 빅테크에 대한 실행 가능한 대안으로 자리매김하게 하여 분산되고 환경 친화적인 클라우드 컴퓨팅 접근 방식을 촉진합니다.
Theta Labs와 휴스턴 로켓츠, AI 기반 마스코트 '클러치봇' 출시 cover
3일 전
Theta Labs와 휴스턴 로켓츠, AI 기반 마스코트 '클러치봇' 출시
Theta Labs는 분산 클라우드 인프라의 주요 제공업체로, 휴스턴 로켓츠와 협력하여 '클러치봇'이라는 혁신적인 AI 기반 마스코트를 소개합니다. 이 디지털 마스코트는 게임 일정, 티켓 세부사항, 선수 통계 및 경기장 정보 등 팀에 대한 실시간 정보를 제공하여 팬 참여를 향상시키도록 설계되었습니다. 팬들은 공식 휴스턴 로켓츠 웹사이트를 통해 클러치봇과 상호작용하며 '다음 게임은 언제인가요?' 또는 '로켓츠가 몇 번의 챔피언십을 우승했나요?'와 같은 질문을 할 수 있습니다. AI는 방대한 로켓츠 및 NBA 데이터를 기반으로 훈련되어 정확하고 시의적절한 응답을 보장합니다. Theta Labs와 휴스턴 로켓츠 간의 협력은 전통적인 참여 방법을 초월하는 보다 몰입감 있는 팬 경험을 창출하는 것을 목표로 하고 있습니다. Theta의 최첨단 EdgeCloud 기술을 활용하여 클러치봇은 스포츠 팀이 팬들과 지속적이고 개인화된 상호작용을 유지할 수 있는 방법에서 중요한 발전을 나타냅니다. 이 이니셔티브는 팬들에게 디지털 경험을 향상시킬 뿐만 아니라, 프로 스포츠 전반에 걸쳐 팬 참여의 새로운 기준을 설정하여 지지자들이 좋아하는 팀과 더 연결될 수 있도록 합니다. 2025년 가을 출시 예정인 클러치봇은 전 세계 팬들이 접근할 수 있게 되어 스포츠와 AI 기술의 교차점에서 중요한 순간을 의미합니다. 휴스턴 로켓츠의 회장 그레첸 셰어에 따르면, 이 파트너십은 팀이 디지털 플랫폼을 통해 보다 매력적이고 개인화된 경험을 제공할 수 있도록 할 것입니다. 산업 거대 기업들의 지원과 강력한 분산 인프라를 바탕으로, Theta Labs는 AI 및 미디어 분야에서 선도적인 역할을 계속하며 스포츠 기술의 미래 혁신을 위한 길을 열어가고 있습니다.
AI: 스포츠 팬덤의 다음 경계 cover
5일 전
AI: 스포츠 팬덤의 다음 경계
인공지능(AI)은 다양한 산업에 중요한 진전을 이루고 있지만, Theta Labs의 CEO인 Mitch Liu에 따르면 스포츠 팬덤 분야는 특히 유망한 경계를 나타냅니다. AI가 주로 작업을 자동화하는 다른 분야와 달리, 스포츠는 AI가 팬 경험을 향상시킬 수 있는 독특한 기회를 제공합니다. 통계, 일정 및 성과 지표와 같은 구조화된 데이터를 통해 AI는 팬들과 공감할 수 있는 방식으로 정보를 분석하고 제시할 수 있습니다. 스포츠 시즌의 순환적 특성은 지속적인 데이터 수집과 기능 테스트를 가능하게 하여 AI 통합에 이상적인 환경을 제공합니다. 최근 연구에 따르면 AI는 개선된 분석 및 개인화된 팬 상호작용을 통해 이미 스포츠 환경을 변화시키고 있습니다. 예를 들어, NFL의 디지털 운동선수 프로그램은 기계 학습을 활용하여 선수 데이터를 평가하고 부상 위험을 예측하는데, 이는 운동선수를 보호할 뿐만 아니라 팬들이 게임을 이해하는 데 도움을 줍니다. 또한, NHL 팀인 Vegas Golden Knights와 New Jersey Devils는 Theta Labs와 협력하여 게임, 티켓 및 팀 뉴스에 대한 문의를 도와주는 AI 기반 챗봇을 만들었습니다. 이러한 혁신은 상호작용 플랫폼을 통해 적시의 정확한 정보를 제공함으로써 팬 경험을 향상시키고 있습니다. 스포츠에서 AI의 잠재력은 전통적인 리그를 넘어 e스포츠로 확장되며, 디지털 환경은 참여를 위한 더 큰 기회를 제공합니다. AI는 실시간 게임 데이터를 기반으로 맞춤형 통찰력을 제공하여 일반 팬과 열성 팬 모두에게 하이퍼 개인화된 경험을 촉진할 수 있습니다. 그러나 스포츠 조직은 이러한 기술을 신중하게 구현해야 하며, 팬덤의 핵심 감정 요소를 대체하기보다는 보완하도록 해야 합니다. AI가 계속 발전함에 따라 스포츠 산업은 팬들이 좋아하는 팀과 상호작용하는 방식을 재정의하고 스포츠 소비의 전반적인 경험을 향상시킬 수 있는 변혁의 시대에 서 있습니다.
스탠포드 AI 연구소, 향상된 연구를 위해 Theta EdgeCloud와 파트너십 체결 cover
9일 전
스탠포드 AI 연구소, 향상된 연구를 위해 Theta EdgeCloud와 파트너십 체결
스탠포드 공학부의 조교수 엘렌 비터칙의 AI 연구소는 이산 최적화 및 알고리즘적 추론에 대한 연구를 강화하기 위해 Theta EdgeCloud의 하이브리드 클라우드 인프라를 활용할 예정입니다. 이 협력은 연구소가 경쟁력 있는 비용으로 확장 가능하고 고성능의 컴퓨팅 파워를 제공하는 EdgeCloud의 분산 GPU를 활용할 수 있게 합니다. 이 기술의 통합은 AI 모델의 훈련을 크게 가속화하고 고급 연구 이니셔티브를 촉진할 것으로 예상됩니다. 서울대학교, KAIST, 오리건 대학교와 같은 다른 저명한 학술 기관들도 AI 연구 생산성을 높이기 위해 EdgeCloud의 인프라를 활용하고 있습니다. 엘렌 비터칙은 머신러닝, 알고리즘적 추론, 그리고 계산과 경제학의 교차점에 전문성을 가지고 있습니다. 그녀의 연구소는 최적화를 위한 대형 언어 모델(LLM)의 적용, 알고리즘적 콘텐츠 선택, 다양한 데이터셋 크기에서 클러스터링 알고리즘의 일반화 등 여러 핵심 분야에 집중하고 있습니다. Theta EdgeCloud의 자원을 활용함으로써 연구소는 AI가 가격 전략 및 타겟 마케팅과 같은 경제적 맥락에서 의사 결정 과정을 어떻게 향상시킬 수 있는지를 탐구하는 것을 목표로 하고 있습니다. Theta EdgeCloud의 하이브리드 GPU 인프라는 확장 가능하고 비용 효율적인 온디맨드 컴퓨팅 파워를 제공하도록 설계되어 있어 학술 연구에 이상적인 솔루션입니다. 비터칙 연구소와의 협력은 AI 분야에서 학술 연구에 고급 클라우드 컴퓨팅 기술을 통합하는 성장하는 추세를 보여줍니다. 이 파트너십은 비터칙의 연구 목표를 발전시킬 뿐만 아니라 전 세계 여러 기관의 AI 연구의 광범위한 환경에도 기여합니다.
팔라 네트워크와 스트리머, 분산형 AI 혁신을 위한 협력 cover
16일 전
팔라 네트워크와 스트리머, 분산형 AI 혁신을 위한 협력
팔라 네트워크와 스트리머가 분산형 AI의 지형을 혁신하기 위한 흥미로운 새로운 파트너십을 발표했습니다. 이 협력은 팔라의 신뢰할 수 있는 컴퓨팅 인프라와 스트리머의 분산형 실시간 데이터 스트리밍 기능을 결합합니다. 목표는 중앙 집중식 중개자에 의존하지 않고 실시간 데이터를 안전하고 비공개로 처리할 수 있는 새로운 유형의 AI 에이전트를 만드는 것입니다. 이러한 기술을 결합함으로써 실시간 분산형 AI의 비전이 현실이 되고 있으며, 다양한 분야에서 혁신적인 애플리케이션을 위한 길을 열고 있습니다. 스트리머는 실시간 데이터 스트리밍을 위해 특별히 설계된 분산형 네트워크에서 운영되며, 피어 투 피어 아키텍처와 게시/구독 모델을 활용합니다. 이 구조는 데이터 생산자가 애플리케이션과 노드가 즉시 소비할 수 있는 스트림을 방송할 수 있게 하여 지연 시간을 크게 줄이고 회복력을 향상시킵니다. 스트리머 내의 블록체인 기술 통합은 본래의 DATA 토큰을 통해 수익화 및 접근 제어를 지원하여 Web3 애플리케이션을 위한 강력한 오픈 데이터 경제를 촉진합니다. 이 파트너십은 전통적인 클라우드 서비스에 대한 의존도를 줄이며 보다 개방적이고 사용자 중심의 웹을 만들기 위한 공동의 사명을 강조합니다. 이 협력은 AI 계산을 위한 안전하고 암호화된 공간을 제공하는 팔라의 신뢰 실행 환경(TEE)과 팔라 계약을 활용합니다. 이는 기계 소유자조차 데이터나 논리에 접근할 수 없도록 하여 검증 가능한 AI 계산을 위한 강력한 기반을 만듭니다. 스트리머의 실시간 데이터 전달을 팔라의 안전한 컴퓨팅 레이어와 통합함으로써 개발자는 개인 정보를 보호하고 검열에 저항하면서 실시간 데이터를 처리하는 AI 시스템을 만들 수 있습니다. 이 파트너십은 분산형 인프라의 잠재력을 보여줄 뿐만 아니라, Web3의 핵심 가치인 개인 정보 보호, 투명성 및 분산화에 부합하는 혁신적인 AI 솔루션을 구축할 수 있는 새로운 길을 열어줍니다.
최신 DePIN 뉴스와 업데이트를 위해 가입하세요