Aethir의 분산형 GPU 서비스 플랫폼 심층 분석
목요일, 6월 6, 2024 11:36 오전
310
신화 연구 및 CMC 연구에 의해 새 보고서에서 분석 된 분산형 GPU 서비스 플랫폼 인 Aethir. 보고서는 Aethir의 기술, 파트너십 및 분산 물리 인프라 네트워크 (DePIN)에서의 시장 위치를 탐구합니다. Aethir는 인공 지능, 게임 및 가상 컴퓨팅 분야의 GPU 제공 업체와 소비자를 연결하고자합니다. 13 개국에 걸쳐 2,400 만 달러의 GPU 인프라를 자랑하며 집계 된 GPU 리소스의 시장 역할을합니다. 플랫폼의 다양한 네트워크는 분산 컴퓨팅 리소스의 효율적인 풀링과 활용을 가능하게하며 분산 인프라 시장에서의 잠재력을 강조합니다.
Related News
4일 전
W2140 EXPO, 타이탄 네트워크와 Pnuts.AI 혁신을 강조하다2024년 11월 12일, 방콕에서 세계적인 AI 및 Web3 컨퍼런스인 W2140 EXPO가 개막되었습니다. 태국 아시아 비즈니스 협회와 태국 정부가 공동 주최한 이 행사에는 1,000개 이상의 조직과 200,000명 이상의 참석자가 참여하여 그 규모가 가장 큰 컨퍼런스로 기록되었습니다. 행사 기간 동안 타이탄 네트워크 핵심 팀의 구성원들은 UN 직원 및 인공지능 국제 연구소(AIII)의 저명한 학자이자 창립자인 제임스 옹 박사와 의미 있는 논의를 진행했습니다. 옹 박사의 기조 연설 제목은 "인류를 위한 AI와 웹: 글로벌 다수의 관점"으로, 현대 환경에서 분산 기술의 중요성을 강조했습니다.
옹 박사는 타이탄 네트워크와 그 생태계 파트너인 Pnuts.AI를 AIDePIN 및 AIDeHIN 프레임워크 내에서 모범 사례로 언급했습니다. 그는 블록체인을 활용하여 유휴 자원을 활용하는 분산 물리적 인프라 네트워크(DePIN)를 개발한 타이탄을 칭찬했습니다. 이 혁신은 전통적인 클라우드 서비스에 대한 분산형, 안전하고 투명한 대안을 제공하며, 최대 96%의 비용 절감이 가능할 수 있습니다. 또한, 그는 Pnuts.AI가 AI 및 Web3 기술을 사용하여 언어 장벽을 허물기 위해 설계된 가장 강력한 실시간 번역 도구라고 칭찬하며, 200개 이상의 언어로 신속하고 정확한 음성 간 번역을 제공한다고 언급했습니다.
더 나아가, 옹 박사는 Pnuts.AI의 미래 잠재력에 대해 논의하며, AI, Web3 및 DeHIN의 매끄러운 통합을 구상했습니다. 이 접근 방식에서는 최고의 인간 언어 전문가들이 AI 시스템과 협력하여 번역 정확성을 크게 향상시킬 것입니다. 이 전문가들은 또한 번역 모델을 개선하기 위한 광범위한 디지털 교육 자료를 제공하며, Web3 메커니즘은 협력적인 인간-AI 노력을 장려하여 강력한 AI-Web3 애플리케이션 생태계를 조성할 것입니다. 이 통합은 글로벌화된 세계에서 언어 번역 및 커뮤니케이션 접근 방식을 혁신할 것으로 기대됩니다.
6일 전
AI 효율성 혁신: L-Mul 알고리즘의 영향인공지능(AI)의 급속한 발전은 다양한 분야에서 중요한 발전을 이끌어냈지만, 높은 에너지 소비로 인해 상당한 환경적 대가를 치르고 있습니다. 특히 신경망을 활용하는 AI 모델은 막대한 계산 능력을 요구하며, 이는 엄청난 전력 소비로 이어집니다. 예를 들어, 2023년 초 ChatGPT를 운영하는 데는 하루 약 564 MWh의 전력이 소모되었으며, 이는 약 18,000개의 미국 가정의 에너지 필요량에 해당합니다. 이러한 에너지 수요는 신경망 계산에 필수적인 복잡한 부동 소수점 연산에 의해 주로 발생하며, AI 시스템의 복잡성이 증가함에 따라 에너지 효율적인 솔루션을 찾는 것이 중요해지고 있습니다.
여기에서 L-Mul(선형 복잡성 곱셈) 알고리즘이 등장합니다. 이는 AI 계산과 관련된 에너지 부담을 크게 줄일 수 있는 획기적인 발전입니다. L-Mul은 부동 소수점 곱셈을 더 간단한 정수 덧셈으로 근사하여 작동하며, 기존 AI 모델에 미세 조정 없이 통합할 수 있습니다. 이 혁신적인 접근 방식은 요소별 텐서 곱셈에서 최대 95%의 에너지 소비 절감과 점곱 계산에서 80%의 절감을 달성하는 놀라운 에너지 절약 효과를 보여주었습니다. 중요한 것은 이러한 에너지 효율성이 AI 모델의 정확성을 저해하지 않으며, 지속 가능한 AI를 위한 중요한 발전을 의미합니다.
L-Mul의 의미는 단순한 에너지 절약을 넘어섭니다. 이는 변환기 모델 및 대형 언어 모델(LLM)을 포함한 다양한 응용 프로그램에서 AI 모델의 성능을 향상시킵니다. GSM8k 및 시각적 질문 응답 작업과 같은 벤치마크에서 L-Mul은 FP8과 같은 전통적인 부동 소수점 형식을 능가하며, 복잡한 계산을 효율적으로 처리할 수 있는 잠재력을 보여주었습니다. AI에 대한 수요가 계속 증가함에 따라, L-Mul은 AI와 관련된 에너지 위기를 해결할 뿐만 아니라 기술 개발의 보다 지속 가능한 미래를 위한 길을 열어주는 중요한 솔루션으로 부각되고 있습니다.
6일 전
리트 프로토콜을 사용한 솔라나와 OpenAI 통합리트 프로토콜은 OpenAI의 기능과 솔라나 블록체인을 안전하게 결합하는 방법을 보여주며 혁신적인 통합을 이루었습니다. 솔라나에서 래핑된 키를 활용함으로써 개발자들은 리트 액션 내에서 OpenAI API가 생성한 응답에 서명할 수 있습니다. 이 통합은 AI 기반 자율 에이전트의 영역에서 특히 혁신적인 응용 프로그램을 열어줍니다. 이러한 에이전트는 리트의 임계값 기반 프로그래머블 키 쌍(PKP) 및 신뢰 실행 환경(TEE) 덕분에 민감한 API 키를 노출하지 않고 블록체인에서 운영할 수 있습니다. 이는 모든 민감한 작업이 보호되도록 하여 AI 에이전트가 분산된 신원을 유지하면서 블록체인 및 전통적인 웹 서비스와 상호작용할 수 있도록 합니다.
이 통합은 개인 컴퓨팅 및 데이터 처리의 중요성을 강조합니다. 데이터를 암호화하고 리트의 TEE 내에서 대형 언어 모델(LLM) 프롬프트를 실행함으로써 개발자들은 의료 기록이나 재무 데이터와 같은 민감한 정보가 프로세스 전반에 걸쳐 안전하게 유지되도록 할 수 있습니다. TEE는 하드웨어 수준의 격리를 제공하므로 노드 운영자조차도 복호화된 데이터에 접근할 수 없습니다. 이 종단 간 암호화는 개인 정보의 안전한 처리를 가능하게 하여 모든 계산이 안전한 환경 내에서 이루어진 후 결과가 다시 암호화되어 전송되도록 합니다.
또한, 이 통합은 훈련 및 추론을 위한 암호학적 증명의 생성을 용이하게 합니다. PKP 서명 권한을 특정 IPFS CID 해시로 제한함으로써 개발자들은 LLM이 생성한 콘텐츠의 진위를 보장할 수 있습니다. 이 증명 시스템은 감사 추적 및 준수 요구 사항에 특히 유용하며, 제3자가 LLM이 생성한 콘텐츠의 진위를 검증할 수 있도록 합니다. 전반적으로 이 통합은 AI와 블록체인 기술을 결합할 수 있는 잠재력을 보여주며, 미래에 더 안전하고 효율적인 응용 프로그램을 위한 길을 열어줍니다.
6일 전
스트라토스, 웹3 애플리케이션 향상을 위해 딥사우스 AI와 파트너십 체결스트라토스가 인공 지능 분야의 저명한 기업인 딥사우스 AI와 흥미로운 파트너십을 발표했습니다. 이 협력은 신경형 컴퓨팅 기술을 활용하는 딥사우스 AI의 최첨단 AI 기능과 스트라토스의 분산 인프라 솔루션을 결합하는 것을 목표로 하고 있습니다. 목표는 웹3 생태계 내에서 더 지능적이고 접근 가능한 분산 애플리케이션을 생성하여 이러한 애플리케이션의 전반적인 기능과 사용자 경험을 향상시키는 것입니다.
딥사우스 AI는 강력한 AI 도구의 포괄적인 모음을 갖춘 다목적 플랫폼을 개발 중입니다. 이러한 도구는 개발자와 기업이 고급 AI 솔루션을 구현하는 데 도움을 주기 위해 특별히 설계되었습니다. 스트라토스의 강력하고 확장 가능한 인프라와 통합함으로써, 딥사우스 AI는 신뢰성, 보안 및 성능을 제공하는 분산 저장 솔루션의 혜택을 누릴 수 있으며, 이는 높은 수요의 AI 기반 애플리케이션을 지원하는 데 필수적입니다.
이 전략적 협력을 통해 스트라토스는 딥사우스 AI 플랫폼의 대량 데이터 요구를 충족하기 위한 필요한 분산 인프라를 제공할 준비가 되어 있습니다. 이 파트너십은 인공 지능과 분산 기술이 조화를 이루어 혁신과 접근성을 디지털 환경에서 촉진하는 새로운 웹3 애플리케이션 시대를 열 것으로 기대됩니다.
7일 전
io.net과 NovaNet, zkGPU-ID로 GPU 검증 강화 파트너십 체결탈중앙화 컴퓨팅 네트워크의 보안성과 신뢰성을 강화하기 위한 중요한 조치로, GPU 클러스터를 전문으로 하는 탈중앙화 물리 인프라 네트워크(DePIN)인 io.net이 제로 지식 증명(ZKP)의 선두주자인 NovaNet과 파트너십을 체결했습니다. 이 협업은 GPU 리소스의 진위성과 성능에 대한 암호학적 보장을 제공하는 혁신적인 솔루션인 제로 지식 GPU 식별(zkGPU-ID)을 개발하는 것을 목표로 하고 있습니다. NovaNet의 고급 ZKP 기술을 활용함으로써 io.net은 탈중앙화 플랫폼 내에서 사용되는 GPU가 광고된 사양을 충족할 뿐만 아니라 이를 초과할 가능성이 있음을 검증할 수 있게 되어 사용자 신뢰와 리소스 신뢰성을 높일 수 있습니다.
io.net의 비즈니스 개발 부사장인 Tausif Ahmed는 이 파트너십의 중요성을 강조하며, 분산 GPU 공급업체의 방대한 네트워크에서 조정 및 검증을 최적화하는 것이 무허가 및 기업 준비가 완료된 탈중앙화 컴퓨팅 네트워크 구축에 필수적이라고 말했습니다. NovaNet의 zkGPU-ID 통합을 통해 io.net은 전 세계적으로 GPU 리소스를 지속적으로 검증하고 테스트할 수 있어 고객이 신뢰할 수 있고 요구 사항을 충족하는 GPU를 자신 있게 임대할 수 있도록 보장합니다. 이 이니셔티브는 리소스의 진위성과 성능에 대한 우려를 완화하는 것을 목표로 하는 탈중앙화 컴퓨팅 인프라의 중요한 발전을 나타냅니다.
또한, zkGPU-ID 프로토콜은 NovaNet의 zkVM(제로 지식 가상 머신) 기술을 활용하여 낮은 비용으로 GPU 사양의 암호학적 증명을 생성하고 검증하는 데 중요한 역할을 합니다. NovaNet의 기술 공동 창립자인 Wyatt Benno는 프라이버시와 지역 검증 가능성을 위해 다양한 장치와 맥락에서 ZKP가 작동하는 필요성을 강조했습니다. NovaNet의 zkEngine은 io.net 플랫폼 내에서 GPU를 철저히 테스트하고 식별하여 GPU의 무결성을 보장하는 ZKP를 생성합니다. 이 파트너십은 탈중앙화 GPU 컴퓨팅 네트워크에서 투명성, 신뢰성 및 보안의 새로운 기준을 설정하며, 업계에서 중요한 진전을 나타냅니다.
8일 전
팔콘 맘바 7B: 주의 없는 AI 모델의 혁신인공지능(AI)의 빠른 발전은 주의 메커니즘에 크게 의존하는 전통적인 변환기 기반 아키텍처에서 벗어난 팔콘 맘바 7B와 같은 주의 없는 모델의 출현에 의해 크게 영향을 받고 있습니다. 아부다비의 기술 혁신 연구소(TII)에서 개발한 이 획기적인 모델은 긴 문맥 작업과 관련된 계산 문제를 해결하기 위해 더 빠르고 메모리 효율적인 추론을 제공하는 상태 공간 모델(SSM)을 활용합니다. 5.5조 개의 토큰으로 구성된 방대한 데이터 세트로 훈련된 팔콘 맘바 7B는 구글의 젬마 및 마이크로소프트의 파이와 같은 기존 모델에 대한 경쟁력 있는 대안으로 자리 잡고 있습니다.
팔콘 맘바 7B의 아키텍처는 입력 길이에 관계없이 일정한 추론 비용을 유지하도록 설계되어, 변환기 모델이 겪는 제곱 비례 확장 문제를 효과적으로 해결합니다. 이 독특한 기능은 문서 요약 및 고객 서비스 자동화와 같은 긴 문맥 처리가 필요한 응용 프로그램에서 뛰어난 성능을 발휘할 수 있게 합니다. 다양한 자연어 처리 벤치마크에서 우수한 성능을 보여주었지만, 복잡한 맥락 이해가 요구되는 작업에서는 여전히 한계를 겪고 있습니다. 그럼에도 불구하고 메모리 효율성과 속도는 AI 솔루션 최적화를 원하는 조직에 매력적인 선택이 됩니다.
팔콘 맘바 7B의 의미는 단순한 성능 지표를 넘어섭니다. 양자화를 지원하여 GPU와 CPU 모두에서 효율적인 배포를 가능하게 하여 다재다능성을 더욱 향상시킵니다. AI 환경이 진화함에 따라, 팔콘 맘바 7B의 성공은 주의 없는 모델이 곧 많은 응용 프로그램의 표준이 될 수 있음을 시사합니다. 지속적인 연구 및 개발을 통해 이러한 모델은 속도와 정확성 모두에서 전통적인 아키텍처를 초월할 가능성이 있으며, 다양한 산업에서 혁신적인 응용 프로그램을 위한 길을 열어줄 것입니다.