최신 DePIN AI 뉴스

AI 프로젝트 보기
피닉스, 오리진 퀀텀과 파트너십 체결하여 양자 컴퓨팅 민주화 cover
3달 전

피닉스, 오리진 퀀텀과 파트너십 체결하여 양자 컴퓨팅 민주화

피닉스는 중국의 선도적인 양자 컴퓨팅 회사인 오리진 퀀텀과 전략적 파트너십을 체결하여 72큐빗 초전도 양자 칩을 분산형 AI 및 컴퓨팅 네트워크에 통합한다고 발표했습니다. 이 협업은 양자 컴퓨팅에 대한 접근을 민주화하여 더 넓은 청중이 이용할 수 있도록 하는 것을 목표로 합니다. 오리진 퀀텀의 첨단 기술을 활용하여 피닉스는 양자 컴퓨팅 기능을 단순화된 API 형식과 양자 컴퓨팅 터미널을 통해 제공하는 가상화된 노드를 생성할 계획이며, 배포 및 개발과 관련된 비용과 복잡성을 크게 줄일 수 있습니다. 이 파트너십의 기초는 "오리진 우콩"으로 알려진 오리진 퀀텀의 최신 초전도 양자 컴퓨터에 있으며, 이는 72개의 작동 큐빗과 126개의 결합 큐빗을 자랑합니다. 이 기술은 이미 운영 중이며 생명과학, 재료 공학, 양자 기계 학습 등 다양한 분야에 적용되었습니다. 특히, 양자 AI의 최신 발전은 오리진의 양자 컴퓨터에서 심층 신경망의 구현을 보았으며, 이는 AI와 양자 기술의 통합에 있어 중요한 진전을 의미합니다. 접근성을 더욱 향상시키기 위해 피닉스는 사용자가 코딩 전문 지식 없이 양자 애플리케이션을 실행할 수 있는 웹 기반 양자 컴퓨팅 플랫폼인 QuantumVM을 개발하고 있습니다. 이 이니셔티브는 2025년 2분기 초에 출시될 예정이며, 연구자와 개발자에게 양자 기능을 쉽게 생성하고 실행할 수 있는 도구를 제공할 것입니다. 피닉스의 생태계 책임자인 타이거 리는 이 파트너십의 중요성을 강조하며, 이는 컴퓨팅에 대한 새로운 접근 방식을 나타내며 AI와 양자 분야 모두에서 첨단 기술과 실용적인 응용 프로그램을 결합하는 것을 목표로 한다고 밝혔습니다.
서강대학교, AI 연구 발전을 위해 EdgeCloud 네트워크에 합류 cover
3달 전

서강대학교, AI 연구 발전을 위해 EdgeCloud 네트워크에 합류

EdgeCloud는 최근 부루 창 교수님이 이끄는 서강대학교 언어 및 데이터 인텔리전스 연구소를 최신 고객으로 맞이했습니다. 이번 추가로 EdgeCloud의 네트워크는 학계, 기업, e스포츠 및 전통 스포츠를 포함한 다양한 분야에서 20명의 클라이언트로 확장되었습니다. 서강대학교는 한국의 주요 AI 연구 기관 중 하나로 인정받고 있으며, 서울대학교, KAIST, 고려대학교, 연세대학교와 같은 저명한 학술 파트너 그룹에 합류하게 되었습니다. 이들 기관은 AI 훈련 및 추론의 문제를 해결하기 위해 Theta EdgeCloud의 하이브리드 클라우드-엣지 GPU 컴퓨팅 플랫폼을 활용하고 있습니다. 부루 창 교수님은 서강대학교 인공지능학과의 조교수로, 자연어 처리(NLP), 다중 모달 기계 학습 및 데이터 마이닝을 전문으로 하는 언어 및 데이터 인텔리전스 연구소를 이끌고 있습니다. 창 박사는 고려대학교에서 컴퓨터 과학 박사 학위를 취득했으며, 이전에는 Hyperconnect에서 기계 학습 연구 과학자로 근무했습니다. 그의 지도 아래 연구소는 주요 AI 학회에 기여하며 대화 생성 및 다중 모달 AI 응용 프로그램과 같은 혁신적인 분야에 집중하여 상당한 인정을 받았습니다. 창 교수님은 EdgeCloud 플랫폼을 사용하게 되어 기쁘다고 표현하며, 사용의 용이성과 확장성을 강조하여 연구소가 AI 연구의 새로운 영역을 탐구할 수 있도록 할 것이라고 밝혔습니다. Theta EdgeCloud에 접근함으로써 언어 및 데이터 인텔리전스 연구소는 여러 주요 분야에서 연구 능력을 향상시키는 것을 목표로 하고 있습니다. 여기에는 개방형 대화 모델 및 NLP의 의미적 다양성 향상, 미디어 처리를 위한 실시간 AI 솔루션 개발, Theta의 하이브리드 GPU 인프라를 통한 AI 워크플로우 효율성 향상이 포함됩니다. 이번 협력은 AI 연구에 있어 유망한 진전을 의미하며, 연구소는 혁신을 촉진하고 이 분야의 복잡한 문제를 해결하기 위해 확장 가능하고 비용 효율적인 컴퓨팅 파워를 활용하고자 합니다.
양자 컴퓨팅의 민주화: 피닉스와 오리진 퀀텀 파트너십 cover
3달 전

양자 컴퓨팅의 민주화: 피닉스와 오리진 퀀텀 파트너십

피닉스, 분산 인공지능의 선두주자와 양자 컴퓨팅의 개척자인 오리진 퀀텀 간의 획기적인 협력이 진행 중입니다. 이 파트너십은 양자 컴퓨팅을 복잡하고 난해한 분야에서 일상적인 기술자들이 접근할 수 있는 실용적인 도구로 변모시키는 것을 목표로 합니다. 오리진 퀀텀의 72-qubit 초전도 칩을 피닉스의 DePIN 네트워크에 통합함으로써, 이 협력은 강력한 계산 능력을 잠금 해제하고 고급 양자 응용 프로그램을 모바일 앱처럼 쉽게 사용할 수 있도록 하는 것을 추구합니다. 이 통합은 양자 시스템의 복잡성을 단순화하여 사용자가 전문 지식 없이도 그 잠재력을 활용할 수 있게 할 것입니다. 이 이니셔티브의 핵심에는 198 큐비트를 자랑하는 오리진 퀀텀의 "우콩" 양자 컴퓨터가 있으며, 이는 생명과학, 재료 공학, 인공지능 등 다양한 분야의 실제 문제를 해결하기 위해 설계되었습니다. 이 기술은 이미 산업에서 큰 반향을 일으키고 있으며, 양자 생명과학에서 스마트 제조 최적화에 이르기까지 프로세스를 향상시키는 실시간 솔루션을 제공하고 있습니다. 이를 보완하는 것은 2025년 2분기 초에 출시될 예정인 직관적인 플랫폼인 QuantumVM입니다. QuantumVM은 사용자 친화적인 웹 인터페이스를 통해 사용자가 양자 계산을 실행할 수 있도록 하여, 양자 기술과 관련된 기술적 장벽과 비용을 크게 줄일 것입니다. 이 파트너십의 함의는 단순한 접근성을 넘어섭니다. 양자 컴퓨팅이 계속 발전함에 따라, 이는 복잡한 시스템과 프로세스를 최적화하여 의료, 금융 및 물류와 같은 산업을 혁신할 것으로 예상됩니다. 더욱이, 양자 기술의 민주화는 혁신을 촉진하는 데 필수적이며, 소규모 기업과 독립 개발자들이 기술 발전에 기여할 수 있도록 합니다. 피닉스와 오리진 퀀텀 간의 이 협력은 단순히 양자 컴퓨팅을 접근 가능하게 만드는 것이 아니라, 디지털 환경을 재편하고 불가능한 것이 일상이 되는 미래를 위한 길을 닦는 것입니다.
iExec, 프라이버시 우선 dApp 구축을 위한 Hello World 튜토리얼 출시 cover
3달 전

iExec, 프라이버시 우선 dApp 구축을 위한 Hello World 튜토리얼 출시

탈중앙화 애플리케이션(dApp)을 구축하는 것은 종종 압도적으로 느껴질 수 있지만, iExec의 Hello World 튜토리얼은 모든 수준의 개발자를 위한 프로세스를 간소화합니다. 이 실습 가이드는 데이터 보호, 관리 및 공유의 중요성을 강조하며 프라이버시 우선 블록체인 애플리케이션을 만드는 데 중점을 둡니다. DataProtector SDK 및 iExec Apps(iApps)와 같은 도구를 활용하여 개발자는 단 30분 만에 사용자 제어 및 데이터 보안을 우선시하는 애플리케이션을 구축하는 방법을 배울 수 있습니다. iExec 플랫폼은 dApp에서 프라이버시와 보안을 보장하고자 하는 개발자를 위해 설계되었습니다. DataProtector SDK와 같은 기능을 통해 개발자는 민감한 데이터를 전체 생애 주기 동안 암호화할 수 있으며, iExec Apps는 신뢰할 수 있는 실행 환경(TEE)을 사용하여 데이터를 안전하게 처리합니다. 블록체인 기술과 기밀 컴퓨팅의 조합은 민감한 정보를 안전하게 처리할 수 있게 하여 의료 및 금융과 같은 분야에서의 애플리케이션에 이상적입니다. 또한, iExec는 개발자가 데이터를 토큰화하고 수익화할 수 있는 기회를 제공하여 빌더와 최종 사용자 모두의 보안을 유지합니다. iExec Hello World는 영향력 있는 탈중앙화 애플리케이션을 만들고자 하는 개발자를 위한 발판 역할을 합니다. 튜토리얼을 완료한 후 참가자는 고급 도구 및 리소스에 접근할 수 있는 BUILD 바우처를 청구하고, 협업을 위한 iExec 개발자 커뮤니티에 참여하며, 실제 사용 사례를 탐색할 수 있습니다. iExec이 제공하는 구조화된 접근 방식은 프라이버시 우선 dApp 구축이 단순히 달성 가능한 것뿐만 아니라 보람 있는 일임을 보장하여 개발자가 민감한 데이터를 보호하고 블록체인 분야에서 혁신적인 솔루션을 만들 수 있도록 합니다.
스포어.펀, AI-FI 거버넌스에서 투표 스나이퍼를 방지하기 위해 FHE 기반 블라인드 투표 도입 cover
4달 전

스포어.펀, AI-FI 거버넌스에서 투표 스나이퍼를 방지하기 위해 FHE 기반 블라인드 투표 도입

스포어.펀은 완전 동형 암호화(FHE)를 도입하여 안전한 거버넌스를 강화함으로써 AI-FI(자율 AI 네이티브 DeFi) 혁신을 선도하고 있습니다. FHE 기술의 선구자인 마인드 네트워크와 협력하고 Phala 네트워크의 신뢰 실행 환경(TEE)과 통합하여 스포어.펀은 AI 에이전트가 분산 시스템을 관리하는 방식을 재정의하는 것을 목표로 하고 있습니다. 그들이 직면한 주요 문제는 투표 스나이퍼의 문제로, 이들은 온체인 거버넌스의 투명성을 이용하여 결과를 조작합니다. 이들은 투표 직전에 스테이킹하고, 커뮤니티 행동에 영향을 미친 후 유리한 결과를 확보한 직후에 즉시 언스테이킹하여 시장 왜곡을 초래하고 커뮤니티 내 신뢰를 저해합니다. 투표 스나이퍼 문제를 해결하기 위해 스포어.펀은 FHE 기반 블라인드 투표를 구현하고 있습니다. 이 혁신적인 메커니즘은 최종 결과의 투명성과 보안을 유지하면서 유권자의 신원과 선호를 숨깁니다. 투표는 제출 전에 암호화되어, 스포어.펀 네트워크나 검증자를 포함한 누구도 투표 내용을 접근할 수 없도록 합니다. 이러한 암호화된 투표의 집계는 FHE를 사용하여 수행되며, 개별 입력을 공개하지 않고도 계산할 수 있습니다. 또한, Phala의 TEE는 최종 결과를 안전하게 복호화하여 발표하는 데 중요한 역할을 하여, 개별 투표는 비공개로 유지되면서 집계 결과는 검증 가능하고 신뢰할 수 있도록 합니다. FHE의 스포어 거버넌스 모델 통합은 공정성을 강화하고, 투명성을 유지하면서 개인 정보를 보장하며, 분산된 진화를 가능하게 함으로써 커뮤니티에 상당한 가치를 제공합니다. FHE와 TEE를 결합한 이 이중 보안 접근 방식은 스포어 에이전트가 자율적이고 안전하게 운영할 수 있도록 하여 분산 AI 거버넌스의 다음 물결을 이끌어냅니다. FHE 블라인드 투표를 채택함으로써 스포어.펀은 안전하고 신뢰할 수 있는 투표로 커뮤니티를 강화할 뿐만 아니라 공정하고 개인 정보 우선의 AI 생태계를 위한 프레임워크를 구축하고 있습니다. 그들이 혁신을 계속하는 동안, 스포어.펀은 분산 AI의 미래를 형성하고 있으며, AI 에이전트가 안전한 환경에서 성장하고 번영할 수 있도록 보장하고 있습니다.
세라믹, 텍스타일 가족에 합류: 분산 데이터 솔루션의 새로운 시대 cover
4달 전

세라믹, 텍스타일 가족에 합류: 분산 데이터 솔루션의 새로운 시대

분산 데이터 분야에서 중요한 발전이 이루어졌습니다. 3Box Labs가 텍스타일과의 합병을 발표하며 세라믹이 이제 텍스타일 가족의 일원이 되었습니다. 이 합병은 세라믹을 테이블랜드 DB 및 베이신 네트워크와 같은 혁신적인 분산 데이터 솔루션과 연결합니다. 암호화폐 산업이 발전함에 따라, 분산형 및 조합 가능한 데이터로 개발되고 있는 애플리케이션도 변화하고 있으며, 특히 데이터 생산 및 소비의 중심이 되고 있는 AI 에이전트의 부상과 함께 변화하고 있습니다. 이러한 에이전트는 분산 저장소, 개방형 조합 가능성 및 실시간 스트리밍 기능을 필요로 하며, 이는 모두 세라믹 커뮤니티의 핵심 제공 사항입니다. 앞으로 세라믹은 더 넓은 개방형 지능 네트워크의 기초 요소로 자리잡을 계획입니다. 이 네트워크는 AI 에이전트 간의 자율 거래를 촉진하여, 에이전트가 필요에 따라 지능을 사고팔 수 있도록 합니다. 에이전트는 다른 에이전트와 통합하거나, 전문 작업을 위임하거나, 전문 지식을 수익화하여 자신의 지식과 능력을 향상시킬 수 있습니다. 세라믹의 역할은 에이전트 간의 커뮤니케이션과 지식 공유를 가능하게 하여 텍스타일이 개발한 저장 기술을 보완하는 데 중요할 것입니다. 이러한 변화에도 불구하고 세라믹은 개발이나 고객 서비스에 차질 없이 현재 운영을 유지할 것입니다. 이 합병은 세라믹의 분산 데이터 환경에서의 위치를 강화할 뿐만 아니라 데이터 세트를 활용하고 지불할 의사가 있는 더 큰 에이전트 네트워크와 연결합니다. 이 전략적 움직임은 분산 생태계 내에서 혁신과 협업을 촉진할 것으로 기대되며, 미래의 흥미로운 발전을 위한 길을 열 것입니다.
DIMO의 분산 인프라를 통한 AI 에이전트의 권한 부여 cover
4달 전

DIMO의 분산 인프라를 통한 AI 에이전트의 권한 부여

인공지능의 진화하는 환경에서 AI 에이전트는 일상적인 의사 결정 및 거래에서 중요한 역할을 할 준비가 되어 있습니다. USV의 "네 가지 미래"에서 제시된 비전은 이러한 에이전트가 자율적으로 상호 작용하고 거래하며 서비스 결제에서 물리적 자산 관리에 이르기까지 모든 것을 관리하는 미래를 강조합니다. 그러나 현재의 도전 과제는 장치 연결성과 상호 운용성의 구분에 있습니다. 장치를 애플리케이션에 연결하는 것만으로는 AI 에이전트가 다양한 서비스에서 기능하도록 권한을 부여하지 않습니다. AI의 잠재력을 최대한 활용하기 위해서는 서로 다른 제조업체의 장치 간 원활한 통신을 촉진하는 공유 프로토콜이 필수적이며, 이 점에서 DIMO의 분산 인프라가 중요한 역할을 합니다. DIMO의 프레임워크는 AI 에이전트가 사용자 대신 정보에 기반한 결정을 내릴 수 있도록 장치 데이터를 안전하고 검증 가능하게 접근할 수 있게 합니다. 이 기능은 전기차(EV) 충전 최적화 및 주차 요금 관리 자동화와 같은 실제 응용 프로그램으로 확장됩니다. 예를 들어, AI 에이전트는 실시간 전기 요금과 차량의 배터리 상태를 분석하여 최적의 충전 시간을 결정하여 비용 절감과 배터리 수명 연장을 보장할 수 있습니다. 유사하게, 위치 데이터를 활용하여 에이전트는 도시 및 민간 API와 인터페이스하여 사용자 개입 없이 불필요한 요금을 방지하며 주차 요금을 자동으로 관리할 수 있습니다. 이러한 예시는 DIMO의 프로토콜이 네트워크 장치 생태계 내에서 지능적인 상호 작용을 촉진하는 방법을 보여줍니다. 분산 인프라의 중요성은 과소평가될 수 없으며, 이는 네트워크 복원력을 향상시킬 뿐만 아니라 AI 에이전트가 더 넓은 범위의 장치에서 작동할 수 있는 잠재력을 확장합니다. AI가 소프트웨어 기반 의사 결정에서 실질적인 현실 제어로 전환하려면 신뢰할 수 있는 데이터를 위한 안전한 오라클, 광범위한 제어를 위한 장치 상호 운용성, 안전한 거래를 위한 기계 신원 프레임워크에 의존해야 합니다. 많은 AI 이니셔티브가 이 인프라가 자연스럽게 발전할 것으로 기대하는 반면, DIMO와 그 커뮤니티는 현재 이를 적극적으로 구축하고 있으며, AI 에이전트가 번창하고 실제 세계에 영향을 미칠 수 있는 개방적이고 분산된 환경을 조성하고 있습니다.
IoTeX 2.0 출시로 기록적인 성장과 AI 통합 추진 cover
4달 전

IoTeX 2.0 출시로 기록적인 성장과 AI 통합 추진

2024년 4분기, IoTeX는 2.0 버전 출시 이후 놀라운 성장을 경험했으며, 평균 일일 거래량이 전분기 대비 1,267% 급증하여 384,300에 도달했습니다. 이 급증은 초당 62건의 거래(tps)로 피크 처리량을 기록하며 보완되었습니다. IoTeX 네트워크에서 발생한 총 수수료도 전분기 대비 205% 증가하여 $448,500에 달했으며, 이는 주로 가스 수수료가 1,600% 급증하고 분산형 거래소(DEX) 수수료가 690% 증가한 데 기인합니다. ioID 프로토콜의 도입은 스마트 장치에 대한 보편적인 온체인 신원 솔루션을 제공하여 검증 가능한 장치 신원을 가능하게 하고 분산 물리 인프라 네트워크(DePIN) 생태계에서 사용자 참여를 향상시키는 데 중요한 역할을 했습니다. IoTeX는 ELIZA 프레임워크를 기반으로 한 자율 에이전트인 BinoAI의 출시를 통해 플랫폼에 인공지능(AI)을 통합하는 데에도 진전을 이루었습니다. 이 개발은 DePIN 데이터를 사용하여 물리적 환경을 인식하고 상호작용할 수 있는 AI 에이전트를 만드는 것을 목표로 하는 Eliza Labs와의 전략적 파트너십의 일환입니다. 또한, Quicksilver라는 중간 계층 프레임워크의 출시로 DePIN 데이터와 AI 에이전트 간의 연결이 용이해져 실시간 데이터 처리와 적응형 응답이 가능해졌습니다. 이러한 혁신은 IoTeX를 AI와 DePIN의 융합에서 선두주자로 자리매김하게 하여, 분산형 애플리케이션이 실제 데이터와 상호작용하는 방식을 혁신적으로 변화시킬 잠재력을 가지고 있습니다. IoTeX 생태계는 크게 확장되어 현재 251개의 프로젝트를 호스팅하고 있으며, 그 중 66개는 DePIN에 집중하고 있습니다. 환경 데이터에 대한 Nubila 및 분산형 데이터 스트리밍을 위한 Streamr와 같은 다양한 기관과의 파트너십은 생태계를 더욱 풍부하게 만들었습니다. 특히 Cancun EVM 호환성에 대한 IoTeX Core의 최근 업그레이드는 네트워크의 기능성과 이더리움과의 상호운용성을 향상시킵니다. IoTeX가 혁신을 지속하고 제공을 확장함에 따라, 분산형 인프라와 AI 기반 애플리케이션의 미래에서 중요한 역할을 할 준비가 되어 있습니다.
DePIN 유니온, AI 통찰력을 민주화하기 위해 UpRock과 파트너십 체결 cover
4달 전

DePIN 유니온, AI 통찰력을 민주화하기 위해 UpRock과 파트너십 체결

DePIN 유니온은 UpRock과의 흥미로운 파트너십을 발표하며 두 플랫폼 모두에 중요한 발전을 이룩했습니다. 이 협력은 모든 사람이 접근할 수 있는 실시간, 편향 없는 통찰력을 생성하는 것을 목표로 하여 사용자가 디지털 영역에서 정보와 상호작용하는 방식을 재정의합니다. UpRock의 사명은 중앙 집중식 인공지능(AI)과 분산 인프라 간의 격차를 해소하고, 모든 사용자에게 혜택을 주는 투명하고 공정한 데이터 생태계를 구축하는 것입니다. 이 파트너십은 데이터 접근성 분야에서 새로운 산업 표준을 마련할 것입니다. 블록체인 기반의 분산 인프라에서 운영되는 DePIN은 공식 X 계정을 통해 이 발표를 했습니다. UpRock은 전통적인 AI 모델에서 자주 발견되는 편향을 제거하는 AI 중심의 웹 크롤링 및 데이터 합성에 대한 혁신적인 접근 방식으로 인정받고 있습니다. UpRock은 고급 웹 크롤링 기술을 활용하여 의미 있는 실시간 통찰력을 검색하고, 분산 프레임워크를 통해 데이터에 대한 원활한 접근을 보장합니다. DePIN 유니온과 UpRock은 AI 기반 지능을 재정의할 준비가 되어 있습니다. DePIN의 분산 인프라와 UpRock의 AI 기능을 통합함으로써, 이 파트너십은 보다 포괄적이고 사용자 중심의 디지털 환경을 만드는 것을 목표로 합니다. 이 협력은 중앙 집중식 통제와 관련된 위험을 완화하면서 안전하고 투명하며 접근 가능한 데이터를 제공할 것을 약속합니다. 두 플랫폼이 발전함에 따라, 그들은 분산되고 공정하며 사용자 중심의 통찰력으로 특징지어지는 미래의 등대 역할을 하며, 궁극적으로 모든 사용자를 위한 지식 기반 환경을 향상시킬 것입니다.
Theta EdgeCloud, DeepSeek LLM 추가 cover
4달 전

Theta EdgeCloud, DeepSeek LLM 추가

Theta EdgeCloud는 중국 AI 스타트업 DeepSeek가 개발한 최첨단 대형 언어 모델인 DeepSeek-R1을 통합했습니다. DeepSeek-R1은 OpenAI의 ChatGPT, Mistral의 Mixtral, Meta의 LLaMA와 같은 모델과 비교할 수 있는 성능을 제공하면서도 훨씬 적은 계산 자원을 사용합니다. DeepSeek-R1을 지원함으로써 분산형 GPU 클라우드 인프라인 Theta EdgeCloud는 AI 효율성과 접근성을 향상시킵니다. DeepSeek의 혁신인 다중 헤드 잠재 주의(Multi-Head-Latent-Attention, MLA)와 FP8 정밀도 양자화는 고급 LLM이 소비자 GPU에서 실행될 수 있도록 하여 고성능 AI를 개발자, 연구자 및 소규모 기업이 비싼 중앙 집중식 클라우드 인프라에 의존하지 않고도 더 쉽게 접근할 수 있게 합니다. Theta EdgeCloud의 분산 아키텍처는 수요에 따라 GPU 노드를 동적으로 할당하여 확장성을 제공하며, 비용이 많이 드는 물리적 인프라 확장의 필요성을 없앱니다. 이 접근 방식은 활용되지 않는 계산 능력을 활용하여 비용을 줄이고, 사용자가 소비하는 자원에 대해서만 비용을 지불할 수 있게 합니다. 비용 효율성 외에도 Theta EdgeCloud는 에너지 집약적인 데이터 센터에 의존하지 않고 여러 위치에 AI 처리를 분산시켜 지속 가능성을 촉진합니다. 이번 통합을 통해 Theta Labs는 분산형 AI 인프라의 경계를 계속해서 확장하며, AI 모델 훈련 및 추론을 위한 보다 비용 효율적이고 확장 가능하며 환경 친화적인 대안을 제공합니다.
최신 DePIN 뉴스와 업데이트를 위해 가입하세요