최신 DePIN AI 뉴스
AI 프로젝트 보기
6달 전
CreatorBid, 분산형 GPU 네트워크를 통한 AI 개발 강화를 위해 io.net과 파트너십 체결
AI 크리에이터 경제에 중요한 발전으로, io.net은 크리에이터와 브랜드를 위한 AI 기반 도구를 전문으로 하는 플랫폼 CreatorBid와 전략적 파트너십을 발표했습니다. 이 협업을 통해 CreatorBid는 io.net의 분산형 GPU 네트워크를 활용하여 이미지 및 비디오 모델의 확장성과 효율성을 향상시킬 수 있습니다. 이 분산 인프라를 활용함으로써 CreatorBid는 자원 활용을 최적화하고 비용을 최소화하여 AI 기술에 참여하는 기업들이 고성능 컴퓨팅을 더 쉽게 이용할 수 있도록 할 계획입니다.
io.net의 비즈니스 개발 부사장인 Tausif Ahmed는 이 파트너십의 장점을 강조하며, CreatorBid가 고급 AI 솔루션을 위해 그들의 분산형 GPU 네트워크를 활용할 수 있게 된다고 밝혔습니다. CreatorBid의 CEO인 Phil Kothe도 이 같은 의견에 동의하며, 확장 가능한 GPU 자원의 잠재력이 AI 인플루언서와 에이전트를 지원할 수 있음을 강조했습니다. 이 파트너십은 콘텐츠 제작에 혁신을 가져올 것이며, 창작자들이 자율적으로 관객과 소통하고 다양한 콘텐츠 형식을 제작할 수 있는 길을 열어 디지털 기업가 정신의 새로운 시대를 열 것입니다.
CreatorBid는 AI 크리에이터 경제의 최전선에 있으며, 창작자들이 자신의 콘텐츠를 수익화하고 AI 에이전트 주위에 활기찬 커뮤니티를 구축할 수 있는 도구를 제공합니다. 이러한 맞춤형 디지털 페르소나는 참여와 상호작용을 촉진하여 창작자와 팬 간의 공동 소유를 촉진합니다. 최첨단 AI 도구와 블록체인 기술을 통합함으로써 CreatorBid는 창작자 환경을 재정의하고 자율적인 크리에이터 경제로의 전환에서 핵심 플레이어로 자리매김하고 있습니다. io.net과의 파트너십은 분산형 GPU 네트워크의 실용적인 응용을 보여줄 뿐만 아니라 콘텐츠 제작 및 브랜딩에서 AI 주도 미래에 대한 CreatorBid의 비전을 가속화합니다.

6달 전
탈중앙화 엣지AI: 인공지능 접근의 민주화
인공지능(AI)의 환경은 탈중앙화 엣지AI의 출현으로 큰 변화를 겪고 있으며, 이는 AI 기술에 대한 접근을 민주화하는 것을 목표로 하고 있습니다. 현재 OpenAI, IBM, 아마존, 구글 등 몇몇 주요 기술 회사들이 AI 인프라 계층을 지배하고 있어, 소규모 기업들에게 장벽을 만들고 전 세계 수백만 사용자와 기업의 접근을 제한하고 있습니다. 이러한 중앙 집중식 통제는 비용을 증가시킬 뿐만 아니라 혁신을 제한합니다. Network3와 같은 이니셔티브에 의해 예시되는 탈중앙화 엣지AI는 탈중앙화 물리적 인프라(DePIN)와 엣지AI를 통합하여 다양한 장치에서 AI 시스템이 실행될 수 있도록 하여 개인 정보 보호와 커뮤니티 참여를 보장함으로써 이러한 문제를 해결하고자 합니다.
엣지AI의 주요 장점 중 하나는 기술 대기업이 소유한 대형 데이터 센터에 대한 의존도를 줄일 수 있다는 것입니다. 전통적인 AI 모델, 특히 GPT-3와 같은 대형 언어 모델(LLM)은 훈련을 위해 상당한 자원을 필요로 하며, 종종 비용이 50만 달러에서 460만 달러에 이릅니다. 이러한 재정적 장벽은 빅테크의 독점을 더욱 강화합니다. 반면, 엣지AI는 개발자들이 스마트폰부터 IoT 기기까지 소형 장치에서 모델을 훈련하고 배포할 수 있도록 하여 접근성을 넓히고 혁신을 촉진합니다. 그러나 엣지AI가 최대 잠재력에 도달하기 위해서는 장치들이 효과적으로 통신하고 자원을 공유할 수 있어야 하며, 계산 및 저장의 한계를 극복해야 합니다.
Network3의 혁신적인 탈중앙화 연합 학습 프레임워크는 협력적 AI 훈련에서 중요한 도약을 나타냅니다. 여러 장치 또는 '노드'가 자원을 풀링할 수 있도록 함으로써, 이 프레임워크는 AI 시스템의 효율성과 성장을 향상시킵니다. 익명 인증서 없는 서명 암호화(CLCS)와 같은 강력한 암호화 방법의 통합은 개인 정보를 유지하면서 안전한 데이터 공유를 보장합니다. 또한, 리드-솔로몬 코딩의 사용은 데이터 정확성을 최적화합니다. 결과적으로, Network3 생태계 내의 엣지 장치는 로컬 분석을 수행할 수 있어 낮은 지연 시간과 실시간 응답을 제공합니다. 이러한 탈중앙화 접근 방식은 중앙 집중식 독점을 완화할 뿐만 아니라 개발자와 사용자에게 새로운 수익원을 열어주어 궁극적으로 AI를 모든 사람에게 더 접근 가능하고 유익하게 만듭니다.

6달 전
Llama 3.2 미세 조정: 향상된 모델 성능을 위한 종합 가이드
메타의 최근 Llama 3.2 출시로 대형 언어 모델(LLM)의 미세 조정이 크게 발전하여 머신러닝 엔지니어와 데이터 과학자들이 특정 작업을 위한 모델 성능을 향상시키기 쉽게 되었습니다. 이 가이드는 필요한 설정, 데이터셋 생성 및 훈련 스크립트 구성 등 미세 조정 프로세스를 설명합니다. 미세 조정을 통해 Llama 3.2와 같은 모델은 고객 지원과 같은 특정 도메인에 특화되어 일반 목적 모델에 비해 더 정확하고 관련성 높은 응답을 제공할 수 있습니다.
Llama 3.2의 미세 조정을 시작하려면 사용자는 먼저 환경을 설정해야 하며, 특히 Windows를 사용하는 경우에는 더욱 그렇습니다. 이는 Linux 터미널에 접근하기 위해 Windows Subsystem for Linux(WSL)를 설치하고, 적절한 NVIDIA 드라이버로 GPU 접근을 구성하며, Python 개발 종속성과 같은 필수 도구를 설치하는 것을 포함합니다. 환경이 준비되면 사용자는 미세 조정을 위해 맞춤형 데이터셋을 생성할 수 있습니다. 예를 들어, Llama 3.2가 간단한 수학 문제에 답변하도록 훈련시키기 위해 데이터셋을 생성할 수 있으며, 이는 목표 지향적 미세 조정의 간단한 예시로 작용합니다.
데이터셋을 준비한 후, 다음 단계는 Unsloth 라이브러리를 사용하여 훈련 스크립트를 설정하는 것입니다. 이는 Low-Rank Adaptation(LoRA)을 통해 미세 조정 프로세스를 간소화합니다. 여기에는 필요한 패키지를 설치하고, 모델을 로드하며, 훈련 프로세스를 시작하는 것이 포함됩니다. 모델이 미세 조정된 후에는 테스트 세트를 생성하고 모델의 응답을 예상 답변과 비교하여 성능을 평가하는 것이 중요합니다. 미세 조정은 특정 작업에 대한 모델 정확도를 향상시키는 데 상당한 이점을 제공하지만, 그 한계와 덜 복잡한 요구 사항에 대한 프롬프트 조정의 잠재적 효과를 고려하는 것이 중요합니다.

6달 전
스트라토스, 탈츠와 파트너십 체결하여 분산형 신원 인증 강화
블록체인 및 AI 분야에서 중요한 발전이 이루어졌습니다. 스트라토스는 비텐서 네트워크와 TAO 생태계 내에서 운영되는 선도적인 분산형 AI 암호화 프로젝트인 탈츠와 전략적 파트너십을 발표했습니다. 탈츠는 GitHub 활동 및 암호화폐 잔고와 같은 고급 지표를 활용하여 독특한 인간 점수를 생성하는 분산형 신원 인증에서 놀라운 진전을 이루었습니다. 이 혁신적인 접근 방식은 인증 프로세스를 강화하여 분산형 환경에서 더 신뢰할 수 있고 효율적으로 만듭니다. 탈츠 아이덴티티 2.0의 출시와 새로운 문서 이해 서브넷이 다가오면서 탈츠는 분산형 AI의 능력을 재정의할 준비를 하고 있습니다.
이번 파트너십을 통해 탈츠는 스트라토스의 분산형 저장 솔루션을 통합하여 데이터 관리 및 보안 프로토콜을 크게 강화할 것입니다. 이 협력은 단순한 기술의 융합이 아니라 분산형 공간에서 가능한 것의 한계를 확장하기 위한 전문 지식의 융합입니다. 스트라토스의 강력한 인프라를 활용함으로써 탈츠는 제공을 강화하고 신원 인증 프로세스가 안전하고 효율적임을 보장할 수 있습니다. 이 시너지는 TAO 생태계 내에서 혁신과 성장을 촉진할 것으로 예상되며, 탈츠의 첨단 기술에 대한 새로운 응용 프로그램의 문을 열 것입니다.
두 회사가 함께 이 여정을 시작함에 따라 블록체인 커뮤니티에 미치는 영향은 상당합니다. 분산형 저장소와 최첨단 AI 솔루션의 통합은 다양한 분야에서 신원 인증이 수행되는 방식에 혁신적인 변화를 가져올 수 있습니다. 이 파트너십은 분산형 기술과 AI를 결합하여 더 안전하고 효율적이며 혁신적인 솔루션을 창출할 수 있는 잠재력을 보여주며, 블록체인 공간에서의 미래 협력의 선례를 설정합니다.

6달 전
구글, 이미지 생성 AI 모델 이미지 3 출시: AI 이미지 생성의 새로운 시대
구글은 공식적으로 이미지 3을 출시했습니다. 이는 2024년 구글 I/O에서의 초기 발표 후 5개월 만에 이루어진 최신 텍스트-이미지 AI 모델입니다. 이 새로운 버전은 이전 모델들에 비해 향상된 이미지 품질, 개선된 세부 사항, 더 나은 조명 및 시각적 아티팩트 감소를 약속합니다. 이미지 3은 자연어 프롬프트를 보다 정확하게 해석하도록 설계되어, 사용자가 복잡한 프롬프트 엔지니어링 없이도 특정 이미지를 생성할 수 있게 합니다. 이 모델은 하이퍼 리얼리즘 사진부터 기발한 일러스트레이션까지 다양한 스타일을 생성할 수 있으며, 이미지 내에서 텍스트를 명확하게 렌더링할 수 있어 맞춤형 인사 카드 및 홍보 자료와 같은 혁신적인 응용 프로그램을 위한 길을 열어줍니다.
안전성과 책임 있는 사용은 이미지 3 개발의 최전선에 있습니다. 구글 딥마인드는 유해하거나 부적절한 콘텐츠 생성을 최소화하기 위해 엄격한 데이터 필터링 및 라벨링 기술을 구현했습니다. 생성 AI 기술이 다양한 산업에 점점 더 통합됨에 따라 이러한 윤리적 기준에 대한 헌신은 매우 중요합니다. 이미지 3을 사용해보고자 하는 사용자는 자연어 프롬프트를 입력하여 구글의 제미니 챗봇을 통해 모델이 사용자의 설명에 기반하여 세부 이미지를 생성하도록 할 수 있습니다.
진보에도 불구하고, 이미지 3은 일부 전문가의 사용성에 영향을 미칠 수 있는 제한 사항이 있습니다. 현재 이 모델은 정사각형 비율만 지원하여, 가로 또는 세로 형식이 필요한 프로젝트에 제약을 줄 수 있습니다. 또한, 인페인팅이나 아웃페인팅과 같은 편집 기능이 부족하며, 사용자는 이미지에 예술적 필터나 스타일을 적용할 수 없습니다. 미드저니, DALL-E 3, 플럭스와 같은 경쟁자들과 비교했을 때, 이미지 3은 이미지 품질과 자연어 처리에서 뛰어나지만, 사용자 제어 및 커스터마이징 옵션에서는 부족합니다. 전반적으로 이미지 3은 고품질 이미지를 생성하는 강력한 도구이지만, 그 한계는 창의적인 과정에서 더 많은 유연성을 원하는 사용자에게는 단점이 될 수 있습니다.

6달 전
렌더 네트워크, '통합'으로 디지털 콘텐츠 제작 혁신
최근 렌더 재단 스페이스가 X에서 주최한 토론에서 OTOY의 CEO이자 렌더 네트워크의 창립자인 줄스 우르바흐는 스타 트렉 30주년을 기념하는 단편 영화 "765874 통합" 제작 중 협업 기술이 이룬 혁신적인 성과에 대한 통찰을 제공했습니다. 우르바흐는 렌더 네트워크가 디지털 콘텐츠 제작을 혁신하고 있으며, 창작자들이 영화, 예술 및 스토리텔링의 새로운 경계를 탐험할 수 있도록 하고 있다고 강조했습니다. 이 영화의 제작은 렌더 네트워크가 고품질 콘텐츠 제작을 민주화할 수 있는 잠재력을 보여주었으며, 막대한 예산 없이도 인상적인 시각 효과를 가능하게 했습니다.
대화의 하이라이트 중 하나는 전통적인 영화 제작 프로세스를 향상시키기 위한 기계 학습(ML)의 혁신적인 사용이었습니다. 우르바흐는 OTOY가 디지털 더블과 얼굴 교체를 활용해 온 오랜 역사를 가지고 있지만, 기술 발전 덕분에 노동 시간을 크게 줄일 수 있었다고 언급했습니다. AI의 통합은 배우의 얼굴 모델링을 간소화하여 번거로운 얼굴 마커의 필요성을 없앴습니다. 이는 제작 과정을 가속화했을 뿐만 아니라 아티스트들이 기술적 문제보다는 스토리텔링에 더 집중할 수 있도록 힘을 실어주었습니다. AI와 GPU 렌더링이 창작 환경을 어떻게 변화시킬 수 있는지를 보여주는 사례입니다.
앞으로 렌더 네트워크는 블랙 프라이데이가 다가옴에 따라 새로운 도구와 통합을 출시할 예정입니다. 계획에는 3D 제작 워크플로우에 AI 도구를 통합하고 홀로그램 렌더링 지원을 확대하는 것이 포함되어 있습니다. 우르바흐의 비전은 명확합니다: 창작자들이 매력적인 이야기를 전달하는 데 필요한 자원을 제공하는 것입니다. "통합"의 성공은 렌더 네트워크의 혁신적인 정신을 증명하며, 미래의 창작자들이 디지털 콘텐츠 제작에서 가능한 것의 한계를 넘어설 수 있는 길을 열어줍니다.

6달 전
AI 연구소, AI 교육 강화를 위해 Theta EdgeCloud와 파트너십 체결
AI 연구소는 한국의 선도적인 e-러닝 제공업체로서, 최근 Theta EdgeCloud와 다년간의 계약을 체결하며 인공지능(AI) 및 데이터 분석(DA) 교육 제공을 강화하는 중요한 단계를 밟았습니다. 이 파트너십을 통해 AI 연구소는 Theta EdgeCloud의 분산 GPU 자원을 활용하여 고급 AI 교육, 모델 훈련 및 생성적 AI 애플리케이션을 촉진할 수 있습니다. 실습 경험과 상호작용 콘텐츠에 중점을 두고 AI 연구소는 AI 및 코딩 기술 교육의 효과로 세계적으로 인정받는 혁신적인 플랫폼 CodingX를 통해 고품질 교육을 제공하는 것을 목표로 하고 있습니다.
Theta EdgeCloud와의 협력은 AI 연구소에 여러 가지 이점을 가져올 것으로 예상됩니다. 온디맨드 GPU 자원을 활용함으로써 교육 과정의 유연성을 높이고 AI를 교육 프로그램에 원활하게 통합할 수 있습니다. 또한, 이 파트너십은 Theta의 분산 인프라를 통해 운영 비용을 절감하여 서비스의 비용 효율적인 확장을 가능하게 할 것입니다. 가장 중요한 것은 AI 기반 학습 방법론의 통합이 각 학생의 고유한 요구를 충족시키기 위해 개인화된 학습 경험을 촉진하여 전반적인 성과를 향상시킬 것입니다.
Theta EdgeCloud는 최근 서울대학교 및 베이징대학교와 같은 저명한 기관과 파트너십을 체결하며 고객 기반을 빠르게 확장하고 있습니다. 이러한 성장은 교육 분야에서 확장 가능하고 비용 효율적인 기술 솔루션에 대한 수요가 증가하고 있음을 강조합니다. AI 연구소의 CEO인 존 최는 이 파트너십에 대한 신뢰를 표명하며, Theta가 한국 대학들 사이에서 강력한 평판을 가지고 있으며 향후 AI 연구소의 운영을 크게 확장할 수 있는 잠재력을 강조했습니다. 이 협력은 AI 주도 미래에서 기술 기술에 대한 증가하는 수요를 충족시킬 준비가 되어 있으며, AI 연구소를 진화하는 교육 환경의 핵심 플레이어로 자리매김하게 할 것입니다.

6달 전
Q-LoRA를 이용한 추출적 질문 응답을 위한 Llama 3.2 11B 미세 조정
대형 언어 모델(LLM)은 자연어 처리에서 필수 도구가 되었으며, 다양한 작업을 처리할 수 있습니다. 그러나 광범위한 훈련으로 인해 특정 응용 프로그램에서 추가적인 적응 없이는 뛰어난 성능을 발휘하지 못할 수 있습니다. Q-LoRA와 같은 미세 조정 기술은 연구자들이 Llama 3.2 11B와 같은 사전 훈련된 모델을 추출적 질문 응답과 같은 특정 작업에 맞게 조정할 수 있도록 합니다. 이 기사는 SQuAD v2 데이터셋에서 Q-LoRA를 사용하여 Llama 3.2 11B를 미세 조정하는 과정을 설명하며, 이 방법을 통해 달성된 성능 향상을 보여줍니다.
LoRA 또는 저순위 적응은 기존 모델에 새로운 가중치를 도입하여 원래 매개변수를 변경하지 않는 기술입니다. 특정 레이어의 출력을 조정하는 어댑터 가중치를 추가함으로써, LoRA는 모델이 사전 훈련된 지식을 유지하면서 특정 작업에 맞게 새로운 기능을 습득할 수 있도록 합니다. 이 실험에서는 Llama 3.2 11B를 추출적 질문 응답을 위해 미세 조정하는 데 중점을 두고, 사용자 쿼리에 직접적으로 답변하는 정확한 텍스트 세그먼트를 추출하는 것을 목표로 합니다. 이 실험은 A100 GPU를 활용한 Google Colab 플랫폼에서 수행되었으며, Hugging Face Transformers 라이브러리가 구현을 지원했습니다.
미세 조정 과정의 결과는 유망했으며, 검증 세트에서 모델 성능이 크게 향상되었습니다. BERT 점수는 0.6469에서 0.7505로 개선되었고, 정확한 일치 점수는 0.116에서 0.418로 상승했습니다. 이러한 향상은 Q-LoRA 기술이 Llama 3.2 11B 모델을 추출적 질문 응답 작업에 효과적으로 적응시킨다는 것을 나타냅니다. 이 기사는 유사한 방법을 다른 모델과 작업에 적용하고자 하는 연구자들을 위한 가이드 역할을 하며, 자연어 처리 분야에서 미세 조정의 잠재력을 강조합니다.

6달 전
io.net, AI 모델 개발을 강화하기 위해 OpenLedger와 파트너십 체결
이번 주, 분산형 GPU 자원 플랫폼 io.net은 인공지능(AI)을 위해 특별히 설계된 데이터 블록체인 OpenLedger와 전략적 파트너십을 발표했습니다. 이 협력은 OpenLedger가 io.net의 글로벌 GPU 컴퓨팅 자원을 활용할 수 있게 하여 AI 모델을 정제하고 훈련하는 능력을 향상시킬 것입니다. GPU의 인터넷으로 알려진 io.net은 분산형 GPU 자원의 강력한 네트워크를 제공하여 OpenLedger가 AI 모델 개발을 가속화하고 개발자들이 보다 효율적인 AI 기반 분산 애플리케이션(DApps)을 만들 수 있도록 합니다. io.net의 비즈니스 개발 부사장인 Tausif Ahmad에 따르면, 이 파트너십은 OpenLedger에 AI 모델을 확장할 수 있는 신뢰할 수 있는 인프라를 제공하고 새로운 사용 사례를 열어주어 분산형 AI 분야에서 혁신적인 제공자로서의 입지를 강화할 것입니다.
GPU 자원 제공 외에도, io.net의 인프라는 AI 모델의 추론 및 호스팅을 지원하여 최적의 성능과 확장성을 보장합니다. 이 파트너십은 OpenLedger의 신뢰할 수 있는 데이터셋 제공자로서의 명성을 높이고 블록체인과 AI의 교차점에서 혁신을 촉진할 것으로 예상됩니다. 협력의 목표는 안전하고 효율적으로 고품질 데이터를 생성하면서 혁신과 성능을 주도하는 것입니다. OpenLedger의 팀원은 io.net의 GPU 인프라를 활용하면 사용자가 AI 모델을 보다 효율적으로 미세 조정할 수 있어 궁극적으로 신뢰할 수 있고 설명 가능한 AI 모델 개발로 이어질 것이라고 강조했습니다.
OpenLedger가 io.net을 GPU 자원 제공자로 선택한 중요한 요소는 비용 효율적이고 확장 가능한 컴퓨팅 솔루션입니다. 이 파트너십은 OpenLedger가 중앙 집중식 클라우드 제공자와 관련된 높은 비용의 제약 없이 서비스를 확장할 수 있게 합니다. 더 큰 데이터셋을 처리하고 전례 없는 효율성으로 AI 모델을 개발함으로써 OpenLedger는 분산형 AI 혁신의 경계를 넓히고자 합니다. 궁극적으로 이 파트너십은 OpenLedger의 개방적이고 협력적인 데이터 환경을 조성하고 블록체인 기반 AI 솔루션의 채택을 촉진하는 사명과 일치합니다.

6달 전
스트라토스, 분산형 AI 인프라 향상을 위한 코텐서와 파트너십 체결
분산형 AI 분야에서 중요한 발전이 이루어졌습니다. 스트라토스는 분산형 AI 추론 네트워크의 선두주자인 코텐서와 파트너십을 체결했다고 발표했습니다. 이번 협업은 스트라토스의 강력한 분산형 저장 및 스트리밍 솔루션을 코텐서의 혁신적인 AI 생태계에 통합하여 분산형 AI 인프라를 향상시키는 것을 목표로 하고 있습니다. 이 파트너십은 안전하고 확장 가능한 데이터 저장을 제공하여 공공 및 개인 AI 작업이 원활하고 신뢰성 있게 운영될 수 있도록 하여 전체 네트워크 성능을 개선할 것입니다.
이번 파트너십의 주요 특징 중 하나는 실시간 추론 스트리밍 기능의 도입입니다. 스트라토스의 고급 비디오 스트리밍 API는 코텐서가 즉각적인 AI 추론 출력을 제공할 수 있도록 하여 동적 애플리케이션 및 사용자 주도 작업을 촉진합니다. 이 향상은 AI 작업의 성능을 최적화할 것으로 예상되며, 스트라토스의 고처리량 인프라는 노드 간 통신을 개선하여 높은 수요 환경에서도 효율적인 데이터 흐름을 보장합니다. 이는 고급 AI 도구를 보다 접근 가능하고 비용 효율적으로 만드는 중요한 단계입니다.
두 회사는 코텐서의 추론 증명(Proof of Inference, PoI) 및 유용한 작업 증명(Proof of Useful Work, PoUW) 시스템을 통해 작업을 검증하고 기여자에게 의미 있는 작업에 대한 보상을 제공하는 분산형 AI 미래에 대한 비전을 공유하고 있습니다. 스트라토스는 Web3 및 AI 솔루션을 지원하는 분산형 인프라를 갖추고 있으며, 900개 이상의 활성 글로벌 저장 노드와 21PB의 용량을 자랑합니다. 이 파트너십은 혁신에 대한 그들의 헌신을 보여줄 뿐만 아니라 기업, 개발자 및 커뮤니티 주도 채굴자들을 위한 새로운 가능성을 열어 더 포괄적이고 확장 가능한 AI 생태계를 구축하는 것을 목표로 하고 있습니다. 분산형 AI 솔루션의 경계를 계속해서 넓혀가는 그들의 추가 업데이트를 기대해 주세요.
최신 DePIN 뉴스와 업데이트를 위해 가입하세요