DePIN 2.0: Bước Tiếp Theo trong Cơ Sở Hạ Tầng Phi Tập Trung

thứ ba, tháng 7 16, 2024 1:55 PM
342
DePIN 2.0: Bước Tiếp Theo trong Cơ Sở Hạ Tầng Phi Tập Trung cover

DePIN 2.0 đại diện cho bước tiếp theo trong Mạng lưới Cơ sở Hạ tầng Vật lý Phi Tập trung, hứa hẹn một thế giới nơi các mạng lưới phi tập trung quản lý cơ sở hạ tầng của chúng ta. Với giá trị thị trường toàn cầu trên 2 tỷ đô la vào năm 2023, DePINs đang nhận được sự công nhận và đầu tư, với hơn 1,5 tỷ đô la được đầu tư vào năm 2024. DePIN 2.0 giới thiệu các hợp đồng thông minh cải tiến, cải thiện bảo mật dữ liệu và phân bổ tài nguyên dựa trên trí tuệ nhân tạo, làm cho nó hiệu quả và có khả năng mở rộng hơn so với người tiền nhiệm của nó. Mặc dù tiềm năng, DePINs đối mặt với thách thức như sự phức tạp kỹ thuật và phân mảnh thị trường, nhưng khả năng của họ để giải quyết các hiệu suất không hiệu quả của hệ thống truyền thống và cung cấp lợi ích kinh tế khiến chúng trở thành một lựa chọn đầu tư hấp dẫn.

Related News

Sự Phi Tập Trung của Tính Toán AI: Một Kỷ Nguyên Mới về Nhu Cầu và Hiệu Quả cover
2 ngày trước
Sự Phi Tập Trung của Tính Toán AI: Một Kỷ Nguyên Mới về Nhu Cầu và Hiệu Quả
Ngành công nghiệp AI hiện đang trải qua một thời điểm quan trọng với sự xuất hiện của các mô hình nhỏ hơn và hiệu quả hơn, chẳng hạn như DeepSeek. Trái ngược với mong đợi, những tiến bộ này không làm giảm nhu cầu về tài nguyên tính toán; thay vào đó, chúng gia tăng nhu cầu, phù hợp với Nghịch lý Jevons, cho rằng hiệu quả cao hơn có thể dẫn đến mức tiêu thụ tổng thể lớn hơn. Khi các mô hình AI trở nên rẻ hơn, nhanh hơn và dễ tiếp cận hơn, nhu cầu về sức mạnh tính toán tiếp tục tăng, đặt ra những câu hỏi quan trọng về cách hỗ trợ suy diễn AI rộng rãi mà không tạo ra các nút thắt cổ chai mới trong cơ sở hạ tầng hiện có. Lịch sử cho thấy, AI đã phụ thuộc vào cơ sở hạ tầng tập trung quy mô lớn do các nhà cung cấp lớn kiểm soát, điều này đã dẫn đến những lo ngại về khả năng tiếp cận, giá cả và tính khả dụng. Tuy nhiên, sự xuất hiện của các mô hình như DeepSeek thách thức mô hình này bằng cách chứng minh rằng việc tăng hiệu quả có thể tạo ra áp lực mới lên tài nguyên tính toán. Khi ngày càng nhiều cá nhân và tổ chức áp dụng công nghệ AI, tổng nhu cầu tính toán đang tăng vọt, đặc biệt khi các lựa chọn mã nguồn mở ngày càng được ưa chuộng. Sự chuyển mình này thể hiện rõ trong sự phát triển nhanh chóng của các mô hình miễn phí và mã nguồn mở vượt trội hơn các tùy chọn độc quyền, cho phép các startup và nhà phát triển độc lập tham gia vào lĩnh vực AI mà không bị ràng buộc bởi các nhà cung cấp đám mây truyền thống. Khi nhu cầu về cơ sở hạ tầng AI có thể mở rộng và tiết kiệm chi phí tăng lên, tính toán phi tập trung đang nổi lên như một giải pháp khả thi. Bằng cách phân phối khối lượng công việc qua một mạng lưới toàn cầu các GPU hiệu suất cao, mô hình này giải quyết nhiều điểm yếu liên quan đến các hệ thống tập trung. Sự phi tập trung không chỉ nâng cao hiệu quả chi phí và khả năng mở rộng mà còn cung cấp quyền riêng tư và kiểm soát dữ liệu tốt hơn. Sự thành công của các mô hình như DeepSeek minh họa cho nhu cầu chuyển hướng sang tính toán AI phân tán, nơi các nhà phát triển và nhà nghiên cứu có thể hoạt động độc lập với cơ sở hạ tầng đám mây độc quyền. Tương lai của tính toán AI không phải là giảm nhu cầu mà là thích ứng với nhu cầu ngày càng tăng về sức mạnh tính toán, đảm bảo rằng hệ sinh thái AI phát triển song song với những tiến bộ của nó.
Mawari Ra Mắt Thành Phố Giải Trí Kỹ Thuật Số Namba: Cuộc Cách Mạng Thành Phố Thông Minh cover
2 ngày trước
Mawari Ra Mắt Thành Phố Giải Trí Kỹ Thuật Số Namba: Cuộc Cách Mạng Thành Phố Thông Minh
Trong một sự hợp tác đột phá, Mawari đã hợp tác với Công ty Đường sắt Điện Nankai, Công ty Meta Osaka và Công ty e-stadium để ra mắt "Thành phố Giải trí Kỹ thuật số Namba" tại Osaka, Nhật Bản. Dự án sáng tạo này nhằm tạo ra thành phố thông minh đầu tiên trên thế giới tích hợp trí tuệ nhân tạo (AI), thực tế mở rộng (XR) và mạng lưới cơ sở hạ tầng vật lý phi tập trung (DePIN) trên quy mô toàn thành phố. Bằng cách tận dụng những điểm mạnh độc đáo của từng đối tác, sáng kiến này nhằm kết hợp công nghệ tiên tiến với cuộc sống đô thị hàng ngày, thúc đẩy một nền văn hóa kỹ thuật số sôi động và giải quyết các thách thức xã hội thông qua sự tham gia của cộng đồng. Vai trò quan trọng của Mawari liên quan đến việc triển khai điện toán biên và thiết bị xử lý trên các tài sản của Nankai để thiết lập một cơ sở hạ tầng phát trực tuyến phi tập trung. Cài đặt này nâng cao trải nghiệm người dùng bằng cách giảm thiểu độ trễ và cho phép tương tác thời gian thực với các hình đại diện AI sống động. Những hình đại diện này được thiết kế để hỗ trợ trong nhiều nhiệm vụ, chẳng hạn như hướng dẫn khách du lịch và tạo điều kiện giao tiếp qua các rào cản ngôn ngữ. Dự án này là một cột mốc quan trọng đối với Mawari, khi nó nhằm mục đích dân chủ hóa những trải nghiệm nhập vai được điều khiển bởi AI, với Giám đốc điều hành Luis Oscar Ramirez nhấn mạnh tiềm năng của nó cho việc áp dụng đại trà và tác động xã hội cụ thể. Tác động dự kiến của Thành phố Giải trí Kỹ thuật số Namba không chỉ giới hạn trong lĩnh vực giải trí, mà còn nhắm đến các lĩnh vực như du lịch và lao động. Bằng cách cung cấp các hướng dẫn 3D đa ngôn ngữ và trải nghiệm văn hóa nhập vai, dự án nhằm thu hút nhiều du khách nước ngoài hơn đến Nhật Bản, từ đó thúc đẩy các doanh nghiệp địa phương. Ngoài ra, nó còn giải quyết tình trạng thiếu lao động của Nhật Bản bằng cách tạo ra cơ hội làm việc linh hoạt, từ xa thông qua các hình đại diện điều khiển bởi AI, thúc đẩy sự bao gồm cho các nhóm đa dạng. Sáng kiến này không chỉ nâng cao khả năng tiếp cận mà còn phù hợp với nhu cầu cấp bách của Nhật Bản về các giải pháp lực lượng lao động đổi mới, đánh dấu một bước chuyển mình hướng tới một tương lai đô thị tích hợp kỹ thuật số.
Acurast Tích Hợp Monad Testnet Để Tăng Cường Khả Năng Blockchain cover
2 ngày trước
Acurast Tích Hợp Monad Testnet Để Tăng Cường Khả Năng Blockchain
Acurast đã có những bước tiến đáng kể bằng cách tích hợp thành công testnet của Monad vào mạng lưới của mình, điều này nâng cao khả năng của công nghệ blockchain hiệu suất cao, thời gian thực. Sự tích hợp này cho phép Monad được truy cập một cách liền mạch thông qua Acurast, từ đó đơn giản hóa quy trình tiếp nhận cho các dự án trong hệ sinh thái Monad. Sự hợp tác này cho phép các dự án sử dụng mạng tính toán phi tập trung của Acurast, cung cấp tính toán ngoài chuỗi hiệu quả và tiết kiệm chi phí, cuối cùng củng cố hệ sinh thái Monad và cung cấp cho các nhà phát triển một cách tiếp cận dễ dàng hơn để tận dụng các khả năng xử lý mạnh mẽ. Monad nổi bật với cơ sở hạ tầng blockchain tiên tiến, nhấn mạnh vào việc thực thi thời gian thực và khả năng mở rộng. Sự tích hợp với Acurast nâng cao các lợi thế cốt lõi của Monad, chẳng hạn như các lớp thực thi tối ưu hóa, cải thiện đáng kể thông lượng và hiệu quả giao dịch. Acurast bổ sung điều này bằng cách cung cấp một môi trường tính toán phi tập trung, đảm bảo tính toàn vẹn và bảo mật dữ liệu trong khi vẫn duy trì khả năng phản hồi thời gian thực. Sự kết hợp này cho phép các nhà phát triển đổi mới mà không phải hy sinh tốc độ hoặc bảo mật, mở đường cho các ứng dụng tiên tiến như thuật toán giao dịch tần suất cao và các giải pháp dựa trên AI. Tầm quan trọng của sự tích hợp này vượt ra ngoài những cải tiến kỹ thuật đơn thuần; nó đánh dấu một thời điểm quan trọng cho Mạng Hạ Tầng Vật Lý Phi Tập Trung (DePIN). Trong khi các lĩnh vực như Gaming và DeFi đã thu hút được sự chú ý, DePIN đại diện cho biên giới tiếp theo trong công nghệ phi tập trung. Bằng cách kết hợp mạng tính toán của Acurast với Monad, quan hệ đối tác này không chỉ nâng cao khả năng tính toán mà còn làm cho hạ tầng phi tập trung trở nên dễ tiếp cận và mạnh mẽ hơn. Với hơn 37,000 thiết bị được đưa vào sử dụng và khoảng 170 triệu giao dịch trên Testnet, Acurast đang sẵn sàng đáp ứng nhu cầu ngày càng tăng cho các ứng dụng thực tế trong nền kinh tế crypto, định hình tương lai của DePIN.
Thành phố Giải trí Kỹ thuật số Namba: Sự kết hợp của AI và XR tại Osaka cover
2 ngày trước
Thành phố Giải trí Kỹ thuật số Namba: Sự kết hợp của AI và XR tại Osaka
Thành phố Giải trí Kỹ thuật số Namba là một dự án thực tế mở rộng (XR) đổi mới nằm ở Osaka, Nhật Bản, tích hợp các hướng dẫn trí tuệ nhân tạo (AI) trên khắp thành phố. Sáng kiến này được hỗ trợ bởi mạng lưới cơ sở hạ tầng vật lý phi tập trung (DePIN) của Mawari, cho thấy cách mà các DePIN có thể đáp ứng hiệu quả nhu cầu tính toán của cả công nghệ XR và AI. Sự hợp tác này bao gồm các bên quan trọng như Mawari, Meta Osaka, Đường sắt Điện Nankai và sân vận động điện tử Namba, làm nổi bật di sản văn hóa và công nghệ phong phú của Osaka trong khi mở rộng ranh giới của những trải nghiệm nhập vai. Dự án nhằm nâng cao trải nghiệm du lịch bằng cách sử dụng các hướng dẫn AI ảo có khả năng thực hiện nhiều nhiệm vụ, từ việc cung cấp hướng dẫn đến việc cung cấp dịch vụ khách hàng. Những nhân vật điều khiển bằng AI này được thiết kế để tạo điều kiện cho các tương tác trực quan vượt qua rào cản ngôn ngữ, giúp du lịch trở nên dễ tiếp cận hơn. Sự tích hợp của AI trong các trải nghiệm XR đặt ra những thách thức độc đáo, đặc biệt là do sức mạnh tính toán đáng kể cần thiết cho việc xử lý đồ họa và xử lý AI. Các DePIN, như những gì mà Mawari cung cấp, hứa hẹn sẽ giảm bớt những thách thức này bằng cách tận dụng các mạng GPU phi tập trung để giảm độ trễ và yêu cầu băng thông. Khi nhu cầu xử lý AI gia tăng, việc chuyển đổi từ xử lý đồ họa sang khả năng AI đang trở nên phổ biến hơn trong số các DePIN GPU. Đáng chú ý, Render Network đã thành công trong việc chuyển hướng để bao gồm xử lý AI bên cạnh trọng tâm ban đầu của mình về đồ họa. Dự án Thành phố Giải trí Kỹ thuật số Namba minh họa xu hướng này, cho thấy tiềm năng của các mạng GPU phi tập trung trong việc hỗ trợ sự hội tụ của các công nghệ XR và AI. Hơn nữa, theo luật pháp Nhật Bản, các token DePIN được phân loại là token tiện ích, điều này giúp điều hướng các thách thức quy định trong khi thúc đẩy đổi mới trong lĩnh vực này.
Mở khóa sức mạnh tính toán vô song với GPU trên Aleph Cloud cover
2 ngày trước
Mở khóa sức mạnh tính toán vô song với GPU trên Aleph Cloud
GPU hiện đã được tích hợp vào [Aleph Cloud](https://aleph.im/), cung cấp khả năng tính toán hiệu suất cao cho các dịch vụ AI, rendering, game, tác nhân AI và nhiều hơn nữa. Chúng tôi tự hào thông báo một cột mốc quan trọng cho hệ sinh thái đám mây phi tập trung của chúng tôi với sự tích hợp GPU mới nhất. Ứng dụng Node Kênh Core Aleph Cloud mới giới thiệu tích hợp GPU, một tính năng chuyển đổi giúp Aleph Cloud trở thành một giải pháp mạnh mẽ và cạnh tranh hơn cho các nhu cầu tính toán hiệu suất cao. Ngoài ra, bản phát hành này mang đến khả năng quản lý tài khoản, ước tính giá cả và một loạt các cải tiến về hiệu suất, khiến Aleph Cloud trở thành một nền tảng mạnh mẽ hơn cho cả nhà phát triển và doanh nghiệp. Với hỗ trợ GPU, người dùng giờ đây có thể mở khóa sức mạnh tính toán vô song cho các tác vụ như đào tạo AI, rendering, game và chạy các tác nhân AI. Bằng cách tận dụng cơ sở hạ tầng phi tập trung, Aleph Cloud cung cấp cả khả năng mở rộng và linh hoạt với giá cả cạnh tranh cao, tất cả thông qua sự tiện lợi của mô hình Trả theo mức sử dụng (PAYG) sử dụng token ALEPH. # Cách mạng hóa tính toán đám mây với tích hợp GPU Việc tích hợp GPU vào Aleph Cloud đánh dấu một bước tiến quan trọng. Bằng cách cho phép truy cập cả GPU tiêu dùng và GPU doanh nghiệp, người dùng giờ đây có thể chọn các tài nguyên chính xác mà họ cần thông qua giao diện trực quan của chúng tôi tại console.twentysix.cloud. Điều này cho phép họ mở rộng khối lượng công việc một cách liền mạch, cho dù họ đang xây dựng các mô hình học máy, rendering đồ họa phức tạp, hay cung cấp nền tảng game dựa trên đám mây. Mỗi mô hình GPU được ghép đôi với các phân bổ vCPU, RAM và đĩa cụ thể, đảm bảo hiệu suất tối đa cho bất kỳ khối lượng công việc nào. Ví dụ, một RTX 4090, lý tưởng cho game hoặc các dự án AI nhỏ hơn, sẽ có giá khoảng 240 đô la mỗi tháng*, trong khi một H100 cấp doanh nghiệp, được thiết kế cho các hoạt động yêu cầu dữ liệu cao, có giá khoảng 1,920 đô la mỗi tháng*. # Mô hình Trả theo mức sử dụng được cải tiến Mô hình PAYG của Aleph Cloud được thiết kế để cung cấp sự linh hoạt và minh bạch về chi phí, một lợi thế quan trọng cho các doanh nghiệp và nhà phát triển. Với token ALEPH là phương thức thanh toán độc quyền, người dùng có thể tận hưởng trải nghiệm thanh toán liền mạch trên các blockchain như Base và Avalanche. Điều này đảm bảo không chỉ tính khả thi mà còn cả khả năng tiếp cận đến một đối tượng toàn cầu. Ngoài ra, khi một người dùng cung cấp một máy ảo được hỗ trợ GPU và khởi động thanh toán, hệ thống sẽ tự động tạo ra hai dòng thanh toán. 80% thanh toán sẽ được phân bổ trực tiếp cho nhà điều hành nút cung cấp sức mạnh tính toán, trong khi 20% sẽ đóng góp vào kho bạc Aleph Cloud. Mô hình này đảm bảo phân phối tài nguyên công bằng và bền vững, khuyến khích các nhà điều hành nút trong khi cũng tái đầu tư vào sự phát triển và tăng trưởng liên tục của hệ sinh thái Aleph Cloud. Cấu trúc giá cả rất đơn giản nhưng cực kỳ cạnh tranh. Ví dụ: * GPU tiêu dùng như RTX 4090 có giá khoảng 111 đô la mỗi tháng, trong khi một RTX 4000 ADA chỉ có giá khoảng 55 đô la mỗi tháng*. * GPU doanh nghiệp như A100 và H100 được thiết kế cho các tác vụ yêu cầu cao, có giá khoảng 875 đô la và 583 đô la mỗi tháng*, tương ứng. Cấu trúc minh bạch này cho phép người dùng lập ngân sách chính xác, mở rộng tài nguyên của họ khi các dự án phát triển. ![Mô hình giá Aleph](https://pbs.twimg.com/media/GkKhUsAXwAE7jv9?format=png&name=large) Phân tích giá cả tính đến ngày 18/02/2025 # Tính năng mới cho trải nghiệm người dùng tối ưu Ngoài việc tích hợp GPU, bản phát hành này giới thiệu một số tính năng nhằm nâng cao hiệu suất và tính khả dụng. Trong số những điểm nổi bật: * Lưu trữ tổng hợp: Bằng cách triển khai lưu trữ cho các tổng hợp chủ sở hữu và dữ liệu chỉ số, nền tảng hiện cung cấp thời gian phản hồi nhanh hơn và hiệu suất mượt mà hơn. * Ước tính giá cả: Người dùng giờ đây có thể ước tính chi phí của các thông điệp thực thi trước khi gửi chúng, cung cấp sự minh bạch và kiểm soát lớn hơn. * Số dư đã được tính toán trước: Tính năng này cải thiện đáng kể hiệu suất hệ thống bằng cách giảm tải tính toán. * Cập nhật dịch vụ chi phí: Dịch vụ chi phí hiện sử dụng các tổng hợp giá cả để có ước tính chính xác hơn. Những cải tiến này cùng nhau làm cho Aleph Cloud đáng tin cậy và thân thiện với người dùng hơn, củng cố vị thế của nó như một giải pháp hàng đầu cho tính toán đám mây phi tập trung. ## Mở khóa các trường hợp sử dụng mới với GPU Việc bổ sung GPU mở rộng khả năng của Aleph Cloud để phục vụ cho nhiều ngành công nghiệp và ứng dụng khác nhau: * AI và học máy: Đào tạo và triển khai các mô hình học máy nhanh hơn và hiệu quả hơn. * Rendering: Tạo hiệu ứng hình ảnh tuyệt đẹp và đồ họa 3D chất lượng cao với thời gian rendering giảm. * Game: Cung cấp trải nghiệm liền mạch, hiệu suất cao cho các nền tảng game đám mây. * Tác nhân AI: Cung cấp sức mạnh cho các tác nhân AI tiên tiến với các nguồn tài nguyên tính toán phi tập trung mạnh mẽ. Những trường hợp sử dụng này cho thấy tính linh hoạt của dịch vụ GPU của Aleph Cloud, khiến nó trở thành lựa chọn hấp dẫn cho các nhà phát triển, người sáng tạo và doanh nghiệp. # Nhìn về phía trước Việc phát hành tích hợp GPU và các tính năng đi kèm đại diện cho một bước nhảy vọt quan trọng cho Aleph Cloud và cộng đồng của nó. Khi chúng tôi tiếp tục nâng cao nền tảng của mình, chúng tôi vẫn cam kết trao quyền cho người dùng với các công cụ mà họ cần để đổi mới, mở rộng và thành công trong một thế giới phi tập trung. Để khám phá những tính năng mới này và bắt đầu tận dụng GPU trên Aleph Cloud, hãy truy cập [console.twentysix.cloud](https://console.twentysix.cloud/computing/gpu-instance/) ngay hôm nay. Để biết thêm thông tin cập nhật, hãy theo dõi chúng tôi trên Twitter và tham gia cộng đồng Discord của chúng tôi. Cùng nhau, hãy định nghĩa lại tương lai của tính toán đám mây. *Các mức giá này được chuyển đổi sang USD từ giá hiện tại của token ALEPH. Dữ liệu này sẽ thay đổi theo thời gian.*
Zeeve Ra Mắt Cogitus: Một Bước Đột Phá cho Triển Khai Avalanche L1 Testnet cover
3 ngày trước
Zeeve Ra Mắt Cogitus: Một Bước Đột Phá cho Triển Khai Avalanche L1 Testnet
Vào ngày 20 tháng 2 năm 2025, Zeeve, một nhà cung cấp giải pháp hạ tầng blockchain nổi bật, đã công bố Cogitus, một nền tảng triển khai chỉ với một cú nhấp chuột cho các testnet Layer 1 (L1) của Avalanche. Nền tảng đổi mới này cho phép các startup Web3 và các nhà phát triển triển khai các testnet công cộng hoàn toàn chức năng chỉ với 50 đô la trong sáu tháng đầu tiên. Truyền thống, việc triển khai một mạng L1 độc lập yêu cầu nguồn lực đáng kể và chuyên môn DevOps sâu rộng, nhưng Cogitus nhằm mục đích đơn giản hóa quy trình này, làm cho nó dễ tiếp cận hơn cho các nhà phát triển trên nhiều lĩnh vực khác nhau, bao gồm cả trò chơi và tài chính. Các L1 của Avalanche đã trở nên phổ biến nhờ vào các môi trường blockchain có thể tùy chỉnh và độc lập. Chúng cung cấp quản trị độc lập, cấu trúc xác thực và mô hình kinh tế trong khi đảm bảo khả năng tương tác trong hệ sinh thái Avalanche rộng lớn hơn. Với sự ra mắt của Cogitus, các nhà phát triển giờ đây có thể triển khai và thử nghiệm các testnet của riêng họ, điều chỉnh cấu hình theo thời gian thực để phù hợp với các trường hợp sử dụng cụ thể của họ. Sự linh hoạt này định vị các L1 của Avalanche như một giải pháp ưu tiên cho các ứng dụng phi tập trung (dApps) hiệu suất cao và các startup Web3 đang tìm kiếm các giải pháp blockchain có thể mở rộng. Các tính năng chính của Cogitus bao gồm các testnet công cộng hoàn chỉnh với các nút xác thực được cấu hình sẵn, các điểm cuối RPC và các trình khám phá chuyên dụng, tất cả đều sẵn sàng cho việc triển khai. Nền tảng tự động hóa cấu hình mạng, loại bỏ những phức tạp kỹ thuật thường đi kèm với các thiết lập như vậy. Thêm vào đó, nó cung cấp giám sát chủ động 24/7 và tính dự phòng đa đám mây để đảm bảo tính khả dụng cao. Với việc triển khai mainnet được giảm giá chỉ với 995 đô la, Cogitus của Zeeve đang chuẩn bị cách mạng hóa cách các nhà phát triển triển khai và mở rộng các L1 của Avalanche, cho phép đổi mới nhanh chóng trong các lĩnh vực như trò chơi, DeFi và các mạng dựa trên AI.
Đăng ký để nhận tin tức và cập nhật mới nhất từ DePIN