APhone và Aethir Ra Mắt Giải Pháp Mở Rộng Mới Cho Cơ Sở Hạ Tầng Phi Tập Trung

thứ ba, tháng 7 23, 2024 1:48 PM
324
APhone và Aethir Ra Mắt Giải Pháp Mở Rộng Mới Cho Cơ Sở Hạ Tầng Phi Tập Trung cover

Một chiếc điện thoại thông minh phi tập trung, APhone, đã hợp tác với Aethir để giới thiệu một giải pháp mở rộng mới giúp giảm chi phí người dùng đáng kể đồng thời tăng dung lượng. Giải pháp cho phép APhone xử lý hơn 800.000 người dùng hàng ngày với một phần nhỏ chi phí trước đó, nhờ vào mạng máy tính đám mây GPU phân tán của Aethir. Ngoài ra, APhone sẽ tích hợp Aethir Edge, một thiết bị trí tuệ nhân tạo cải thiện hiệu suất và bảo mật của các ứng dụng Web3. Dự kiến ​​sự hợp tác sẽ giúp APhone tiết kiệm hơn 3,2 triệu đô la hàng quý và có thể thúc đẩy ngành cơ sở hạ tầng vật lý phi tập trung (DePIN), dự kiến ​​sẽ đạt mức 3,5 nghìn tỷ đô la vào năm 2028.

Mua Ngay tại

Related News

Sự Phi Tập Trung của Tính Toán AI: Một Kỷ Nguyên Mới về Nhu Cầu và Hiệu Quả cover
2 ngày trước
Sự Phi Tập Trung của Tính Toán AI: Một Kỷ Nguyên Mới về Nhu Cầu và Hiệu Quả
Ngành công nghiệp AI hiện đang trải qua một thời điểm quan trọng với sự xuất hiện của các mô hình nhỏ hơn và hiệu quả hơn, chẳng hạn như DeepSeek. Trái ngược với mong đợi, những tiến bộ này không làm giảm nhu cầu về tài nguyên tính toán; thay vào đó, chúng gia tăng nhu cầu, phù hợp với Nghịch lý Jevons, cho rằng hiệu quả cao hơn có thể dẫn đến mức tiêu thụ tổng thể lớn hơn. Khi các mô hình AI trở nên rẻ hơn, nhanh hơn và dễ tiếp cận hơn, nhu cầu về sức mạnh tính toán tiếp tục tăng, đặt ra những câu hỏi quan trọng về cách hỗ trợ suy diễn AI rộng rãi mà không tạo ra các nút thắt cổ chai mới trong cơ sở hạ tầng hiện có. Lịch sử cho thấy, AI đã phụ thuộc vào cơ sở hạ tầng tập trung quy mô lớn do các nhà cung cấp lớn kiểm soát, điều này đã dẫn đến những lo ngại về khả năng tiếp cận, giá cả và tính khả dụng. Tuy nhiên, sự xuất hiện của các mô hình như DeepSeek thách thức mô hình này bằng cách chứng minh rằng việc tăng hiệu quả có thể tạo ra áp lực mới lên tài nguyên tính toán. Khi ngày càng nhiều cá nhân và tổ chức áp dụng công nghệ AI, tổng nhu cầu tính toán đang tăng vọt, đặc biệt khi các lựa chọn mã nguồn mở ngày càng được ưa chuộng. Sự chuyển mình này thể hiện rõ trong sự phát triển nhanh chóng của các mô hình miễn phí và mã nguồn mở vượt trội hơn các tùy chọn độc quyền, cho phép các startup và nhà phát triển độc lập tham gia vào lĩnh vực AI mà không bị ràng buộc bởi các nhà cung cấp đám mây truyền thống. Khi nhu cầu về cơ sở hạ tầng AI có thể mở rộng và tiết kiệm chi phí tăng lên, tính toán phi tập trung đang nổi lên như một giải pháp khả thi. Bằng cách phân phối khối lượng công việc qua một mạng lưới toàn cầu các GPU hiệu suất cao, mô hình này giải quyết nhiều điểm yếu liên quan đến các hệ thống tập trung. Sự phi tập trung không chỉ nâng cao hiệu quả chi phí và khả năng mở rộng mà còn cung cấp quyền riêng tư và kiểm soát dữ liệu tốt hơn. Sự thành công của các mô hình như DeepSeek minh họa cho nhu cầu chuyển hướng sang tính toán AI phân tán, nơi các nhà phát triển và nhà nghiên cứu có thể hoạt động độc lập với cơ sở hạ tầng đám mây độc quyền. Tương lai của tính toán AI không phải là giảm nhu cầu mà là thích ứng với nhu cầu ngày càng tăng về sức mạnh tính toán, đảm bảo rằng hệ sinh thái AI phát triển song song với những tiến bộ của nó.
Mawari Ra Mắt Thành Phố Giải Trí Kỹ Thuật Số Namba: Cuộc Cách Mạng Thành Phố Thông Minh cover
2 ngày trước
Mawari Ra Mắt Thành Phố Giải Trí Kỹ Thuật Số Namba: Cuộc Cách Mạng Thành Phố Thông Minh
Trong một sự hợp tác đột phá, Mawari đã hợp tác với Công ty Đường sắt Điện Nankai, Công ty Meta Osaka và Công ty e-stadium để ra mắt "Thành phố Giải trí Kỹ thuật số Namba" tại Osaka, Nhật Bản. Dự án sáng tạo này nhằm tạo ra thành phố thông minh đầu tiên trên thế giới tích hợp trí tuệ nhân tạo (AI), thực tế mở rộng (XR) và mạng lưới cơ sở hạ tầng vật lý phi tập trung (DePIN) trên quy mô toàn thành phố. Bằng cách tận dụng những điểm mạnh độc đáo của từng đối tác, sáng kiến này nhằm kết hợp công nghệ tiên tiến với cuộc sống đô thị hàng ngày, thúc đẩy một nền văn hóa kỹ thuật số sôi động và giải quyết các thách thức xã hội thông qua sự tham gia của cộng đồng. Vai trò quan trọng của Mawari liên quan đến việc triển khai điện toán biên và thiết bị xử lý trên các tài sản của Nankai để thiết lập một cơ sở hạ tầng phát trực tuyến phi tập trung. Cài đặt này nâng cao trải nghiệm người dùng bằng cách giảm thiểu độ trễ và cho phép tương tác thời gian thực với các hình đại diện AI sống động. Những hình đại diện này được thiết kế để hỗ trợ trong nhiều nhiệm vụ, chẳng hạn như hướng dẫn khách du lịch và tạo điều kiện giao tiếp qua các rào cản ngôn ngữ. Dự án này là một cột mốc quan trọng đối với Mawari, khi nó nhằm mục đích dân chủ hóa những trải nghiệm nhập vai được điều khiển bởi AI, với Giám đốc điều hành Luis Oscar Ramirez nhấn mạnh tiềm năng của nó cho việc áp dụng đại trà và tác động xã hội cụ thể. Tác động dự kiến của Thành phố Giải trí Kỹ thuật số Namba không chỉ giới hạn trong lĩnh vực giải trí, mà còn nhắm đến các lĩnh vực như du lịch và lao động. Bằng cách cung cấp các hướng dẫn 3D đa ngôn ngữ và trải nghiệm văn hóa nhập vai, dự án nhằm thu hút nhiều du khách nước ngoài hơn đến Nhật Bản, từ đó thúc đẩy các doanh nghiệp địa phương. Ngoài ra, nó còn giải quyết tình trạng thiếu lao động của Nhật Bản bằng cách tạo ra cơ hội làm việc linh hoạt, từ xa thông qua các hình đại diện điều khiển bởi AI, thúc đẩy sự bao gồm cho các nhóm đa dạng. Sáng kiến này không chỉ nâng cao khả năng tiếp cận mà còn phù hợp với nhu cầu cấp bách của Nhật Bản về các giải pháp lực lượng lao động đổi mới, đánh dấu một bước chuyển mình hướng tới một tương lai đô thị tích hợp kỹ thuật số.
Acurast Tích Hợp Monad Testnet Để Tăng Cường Khả Năng Blockchain cover
2 ngày trước
Acurast Tích Hợp Monad Testnet Để Tăng Cường Khả Năng Blockchain
Acurast đã có những bước tiến đáng kể bằng cách tích hợp thành công testnet của Monad vào mạng lưới của mình, điều này nâng cao khả năng của công nghệ blockchain hiệu suất cao, thời gian thực. Sự tích hợp này cho phép Monad được truy cập một cách liền mạch thông qua Acurast, từ đó đơn giản hóa quy trình tiếp nhận cho các dự án trong hệ sinh thái Monad. Sự hợp tác này cho phép các dự án sử dụng mạng tính toán phi tập trung của Acurast, cung cấp tính toán ngoài chuỗi hiệu quả và tiết kiệm chi phí, cuối cùng củng cố hệ sinh thái Monad và cung cấp cho các nhà phát triển một cách tiếp cận dễ dàng hơn để tận dụng các khả năng xử lý mạnh mẽ. Monad nổi bật với cơ sở hạ tầng blockchain tiên tiến, nhấn mạnh vào việc thực thi thời gian thực và khả năng mở rộng. Sự tích hợp với Acurast nâng cao các lợi thế cốt lõi của Monad, chẳng hạn như các lớp thực thi tối ưu hóa, cải thiện đáng kể thông lượng và hiệu quả giao dịch. Acurast bổ sung điều này bằng cách cung cấp một môi trường tính toán phi tập trung, đảm bảo tính toàn vẹn và bảo mật dữ liệu trong khi vẫn duy trì khả năng phản hồi thời gian thực. Sự kết hợp này cho phép các nhà phát triển đổi mới mà không phải hy sinh tốc độ hoặc bảo mật, mở đường cho các ứng dụng tiên tiến như thuật toán giao dịch tần suất cao và các giải pháp dựa trên AI. Tầm quan trọng của sự tích hợp này vượt ra ngoài những cải tiến kỹ thuật đơn thuần; nó đánh dấu một thời điểm quan trọng cho Mạng Hạ Tầng Vật Lý Phi Tập Trung (DePIN). Trong khi các lĩnh vực như Gaming và DeFi đã thu hút được sự chú ý, DePIN đại diện cho biên giới tiếp theo trong công nghệ phi tập trung. Bằng cách kết hợp mạng tính toán của Acurast với Monad, quan hệ đối tác này không chỉ nâng cao khả năng tính toán mà còn làm cho hạ tầng phi tập trung trở nên dễ tiếp cận và mạnh mẽ hơn. Với hơn 37,000 thiết bị được đưa vào sử dụng và khoảng 170 triệu giao dịch trên Testnet, Acurast đang sẵn sàng đáp ứng nhu cầu ngày càng tăng cho các ứng dụng thực tế trong nền kinh tế crypto, định hình tương lai của DePIN.
Thành phố Giải trí Kỹ thuật số Namba: Sự kết hợp của AI và XR tại Osaka cover
2 ngày trước
Thành phố Giải trí Kỹ thuật số Namba: Sự kết hợp của AI và XR tại Osaka
Thành phố Giải trí Kỹ thuật số Namba là một dự án thực tế mở rộng (XR) đổi mới nằm ở Osaka, Nhật Bản, tích hợp các hướng dẫn trí tuệ nhân tạo (AI) trên khắp thành phố. Sáng kiến này được hỗ trợ bởi mạng lưới cơ sở hạ tầng vật lý phi tập trung (DePIN) của Mawari, cho thấy cách mà các DePIN có thể đáp ứng hiệu quả nhu cầu tính toán của cả công nghệ XR và AI. Sự hợp tác này bao gồm các bên quan trọng như Mawari, Meta Osaka, Đường sắt Điện Nankai và sân vận động điện tử Namba, làm nổi bật di sản văn hóa và công nghệ phong phú của Osaka trong khi mở rộng ranh giới của những trải nghiệm nhập vai. Dự án nhằm nâng cao trải nghiệm du lịch bằng cách sử dụng các hướng dẫn AI ảo có khả năng thực hiện nhiều nhiệm vụ, từ việc cung cấp hướng dẫn đến việc cung cấp dịch vụ khách hàng. Những nhân vật điều khiển bằng AI này được thiết kế để tạo điều kiện cho các tương tác trực quan vượt qua rào cản ngôn ngữ, giúp du lịch trở nên dễ tiếp cận hơn. Sự tích hợp của AI trong các trải nghiệm XR đặt ra những thách thức độc đáo, đặc biệt là do sức mạnh tính toán đáng kể cần thiết cho việc xử lý đồ họa và xử lý AI. Các DePIN, như những gì mà Mawari cung cấp, hứa hẹn sẽ giảm bớt những thách thức này bằng cách tận dụng các mạng GPU phi tập trung để giảm độ trễ và yêu cầu băng thông. Khi nhu cầu xử lý AI gia tăng, việc chuyển đổi từ xử lý đồ họa sang khả năng AI đang trở nên phổ biến hơn trong số các DePIN GPU. Đáng chú ý, Render Network đã thành công trong việc chuyển hướng để bao gồm xử lý AI bên cạnh trọng tâm ban đầu của mình về đồ họa. Dự án Thành phố Giải trí Kỹ thuật số Namba minh họa xu hướng này, cho thấy tiềm năng của các mạng GPU phi tập trung trong việc hỗ trợ sự hội tụ của các công nghệ XR và AI. Hơn nữa, theo luật pháp Nhật Bản, các token DePIN được phân loại là token tiện ích, điều này giúp điều hướng các thách thức quy định trong khi thúc đẩy đổi mới trong lĩnh vực này.
Mở khóa sức mạnh tính toán vô song với GPU trên Aleph Cloud cover
2 ngày trước
Mở khóa sức mạnh tính toán vô song với GPU trên Aleph Cloud
GPU hiện đã được tích hợp vào [Aleph Cloud](https://aleph.im/), cung cấp khả năng tính toán hiệu suất cao cho các dịch vụ AI, rendering, game, tác nhân AI và nhiều hơn nữa. Chúng tôi tự hào thông báo một cột mốc quan trọng cho hệ sinh thái đám mây phi tập trung của chúng tôi với sự tích hợp GPU mới nhất. Ứng dụng Node Kênh Core Aleph Cloud mới giới thiệu tích hợp GPU, một tính năng chuyển đổi giúp Aleph Cloud trở thành một giải pháp mạnh mẽ và cạnh tranh hơn cho các nhu cầu tính toán hiệu suất cao. Ngoài ra, bản phát hành này mang đến khả năng quản lý tài khoản, ước tính giá cả và một loạt các cải tiến về hiệu suất, khiến Aleph Cloud trở thành một nền tảng mạnh mẽ hơn cho cả nhà phát triển và doanh nghiệp. Với hỗ trợ GPU, người dùng giờ đây có thể mở khóa sức mạnh tính toán vô song cho các tác vụ như đào tạo AI, rendering, game và chạy các tác nhân AI. Bằng cách tận dụng cơ sở hạ tầng phi tập trung, Aleph Cloud cung cấp cả khả năng mở rộng và linh hoạt với giá cả cạnh tranh cao, tất cả thông qua sự tiện lợi của mô hình Trả theo mức sử dụng (PAYG) sử dụng token ALEPH. # Cách mạng hóa tính toán đám mây với tích hợp GPU Việc tích hợp GPU vào Aleph Cloud đánh dấu một bước tiến quan trọng. Bằng cách cho phép truy cập cả GPU tiêu dùng và GPU doanh nghiệp, người dùng giờ đây có thể chọn các tài nguyên chính xác mà họ cần thông qua giao diện trực quan của chúng tôi tại console.twentysix.cloud. Điều này cho phép họ mở rộng khối lượng công việc một cách liền mạch, cho dù họ đang xây dựng các mô hình học máy, rendering đồ họa phức tạp, hay cung cấp nền tảng game dựa trên đám mây. Mỗi mô hình GPU được ghép đôi với các phân bổ vCPU, RAM và đĩa cụ thể, đảm bảo hiệu suất tối đa cho bất kỳ khối lượng công việc nào. Ví dụ, một RTX 4090, lý tưởng cho game hoặc các dự án AI nhỏ hơn, sẽ có giá khoảng 240 đô la mỗi tháng*, trong khi một H100 cấp doanh nghiệp, được thiết kế cho các hoạt động yêu cầu dữ liệu cao, có giá khoảng 1,920 đô la mỗi tháng*. # Mô hình Trả theo mức sử dụng được cải tiến Mô hình PAYG của Aleph Cloud được thiết kế để cung cấp sự linh hoạt và minh bạch về chi phí, một lợi thế quan trọng cho các doanh nghiệp và nhà phát triển. Với token ALEPH là phương thức thanh toán độc quyền, người dùng có thể tận hưởng trải nghiệm thanh toán liền mạch trên các blockchain như Base và Avalanche. Điều này đảm bảo không chỉ tính khả thi mà còn cả khả năng tiếp cận đến một đối tượng toàn cầu. Ngoài ra, khi một người dùng cung cấp một máy ảo được hỗ trợ GPU và khởi động thanh toán, hệ thống sẽ tự động tạo ra hai dòng thanh toán. 80% thanh toán sẽ được phân bổ trực tiếp cho nhà điều hành nút cung cấp sức mạnh tính toán, trong khi 20% sẽ đóng góp vào kho bạc Aleph Cloud. Mô hình này đảm bảo phân phối tài nguyên công bằng và bền vững, khuyến khích các nhà điều hành nút trong khi cũng tái đầu tư vào sự phát triển và tăng trưởng liên tục của hệ sinh thái Aleph Cloud. Cấu trúc giá cả rất đơn giản nhưng cực kỳ cạnh tranh. Ví dụ: * GPU tiêu dùng như RTX 4090 có giá khoảng 111 đô la mỗi tháng, trong khi một RTX 4000 ADA chỉ có giá khoảng 55 đô la mỗi tháng*. * GPU doanh nghiệp như A100 và H100 được thiết kế cho các tác vụ yêu cầu cao, có giá khoảng 875 đô la và 583 đô la mỗi tháng*, tương ứng. Cấu trúc minh bạch này cho phép người dùng lập ngân sách chính xác, mở rộng tài nguyên của họ khi các dự án phát triển. ![Mô hình giá Aleph](https://pbs.twimg.com/media/GkKhUsAXwAE7jv9?format=png&name=large) Phân tích giá cả tính đến ngày 18/02/2025 # Tính năng mới cho trải nghiệm người dùng tối ưu Ngoài việc tích hợp GPU, bản phát hành này giới thiệu một số tính năng nhằm nâng cao hiệu suất và tính khả dụng. Trong số những điểm nổi bật: * Lưu trữ tổng hợp: Bằng cách triển khai lưu trữ cho các tổng hợp chủ sở hữu và dữ liệu chỉ số, nền tảng hiện cung cấp thời gian phản hồi nhanh hơn và hiệu suất mượt mà hơn. * Ước tính giá cả: Người dùng giờ đây có thể ước tính chi phí của các thông điệp thực thi trước khi gửi chúng, cung cấp sự minh bạch và kiểm soát lớn hơn. * Số dư đã được tính toán trước: Tính năng này cải thiện đáng kể hiệu suất hệ thống bằng cách giảm tải tính toán. * Cập nhật dịch vụ chi phí: Dịch vụ chi phí hiện sử dụng các tổng hợp giá cả để có ước tính chính xác hơn. Những cải tiến này cùng nhau làm cho Aleph Cloud đáng tin cậy và thân thiện với người dùng hơn, củng cố vị thế của nó như một giải pháp hàng đầu cho tính toán đám mây phi tập trung. ## Mở khóa các trường hợp sử dụng mới với GPU Việc bổ sung GPU mở rộng khả năng của Aleph Cloud để phục vụ cho nhiều ngành công nghiệp và ứng dụng khác nhau: * AI và học máy: Đào tạo và triển khai các mô hình học máy nhanh hơn và hiệu quả hơn. * Rendering: Tạo hiệu ứng hình ảnh tuyệt đẹp và đồ họa 3D chất lượng cao với thời gian rendering giảm. * Game: Cung cấp trải nghiệm liền mạch, hiệu suất cao cho các nền tảng game đám mây. * Tác nhân AI: Cung cấp sức mạnh cho các tác nhân AI tiên tiến với các nguồn tài nguyên tính toán phi tập trung mạnh mẽ. Những trường hợp sử dụng này cho thấy tính linh hoạt của dịch vụ GPU của Aleph Cloud, khiến nó trở thành lựa chọn hấp dẫn cho các nhà phát triển, người sáng tạo và doanh nghiệp. # Nhìn về phía trước Việc phát hành tích hợp GPU và các tính năng đi kèm đại diện cho một bước nhảy vọt quan trọng cho Aleph Cloud và cộng đồng của nó. Khi chúng tôi tiếp tục nâng cao nền tảng của mình, chúng tôi vẫn cam kết trao quyền cho người dùng với các công cụ mà họ cần để đổi mới, mở rộng và thành công trong một thế giới phi tập trung. Để khám phá những tính năng mới này và bắt đầu tận dụng GPU trên Aleph Cloud, hãy truy cập [console.twentysix.cloud](https://console.twentysix.cloud/computing/gpu-instance/) ngay hôm nay. Để biết thêm thông tin cập nhật, hãy theo dõi chúng tôi trên Twitter và tham gia cộng đồng Discord của chúng tôi. Cùng nhau, hãy định nghĩa lại tương lai của tính toán đám mây. *Các mức giá này được chuyển đổi sang USD từ giá hiện tại của token ALEPH. Dữ liệu này sẽ thay đổi theo thời gian.*
DIMO Ra Mắt Đăng Nhập với DIMO: Một SDK React Mới Dành Cho Các Nhà Phát Triển cover
3 ngày trước
DIMO Ra Mắt Đăng Nhập với DIMO: Một SDK React Mới Dành Cho Các Nhà Phát Triển
DIMO đã chính thức ra mắt "Đăng Nhập với DIMO," một SDK React được thiết kế để tạo điều kiện tích hợp với các API và SDK của nó cho các nhà phát triển trong hệ sinh thái DIMO. Bộ công cụ này có các thành phần tùy chỉnh sẵn có, không chỉ tiết kiệm thời gian mà còn nâng cao trải nghiệm người dùng. Bằng cách sử dụng SDK mới này, các nhà phát triển có thể tạo ra các ứng dụng tận dụng giao thức xe hơi phi tập trung của DIMO, đảm bảo trải nghiệm nhất quán và trực quan cho người dùng trên toàn nền tảng. SDK "Đăng Nhập với DIMO" đơn giản hóa quy trình tích hợp bằng cách cung cấp cho các nhà phát triển các thành phần React sẵn sàng sử dụng, kết nối liền mạch với các API của DIMO cho việc xác thực tài khoản và quản lý giao dịch. Những thành phần này cho phép tùy chỉnh hoàn toàn, giúp các nhà phát triển duy trì thương hiệu ứng dụng của họ trong khi đảm bảo trải nghiệm người dùng đồng nhất trên nhiều ứng dụng DIMO khác nhau. SDK cũng hỗ trợ nhiều chế độ tích hợp, phục vụ cho các trường hợp sử dụng khác nhau và tăng tốc quy trình phát triển, cho phép các nhà phát triển tập trung vào đổi mới. Hiện tại, "Đăng Nhập với DIMO" đã được sử dụng trong một số ứng dụng trực tiếp, chứng minh hiệu quả của nó trong việc nâng cao trải nghiệm người dùng và đơn giản hóa phát triển. Một số ví dụ bao gồm Roil, cung cấp phần thưởng sạc ẩn, và DLP Labs, cho phép người dùng đóng góp dữ liệu xe hơi cho việc đào tạo AI. Lợi ích cho các nhà phát triển bao gồm tích hợp nhanh hơn và các thành phần tùy chỉnh, trong khi người dùng tận hưởng trải nghiệm đăng nhập trực quan và tính khả dụng được cải thiện. Nhìn về phía trước, DIMO dự định giới thiệu các tính năng như văn bản tùy chỉnh và theo dõi UTM, nâng cao hơn nữa khả năng của SDK và củng cố vai trò của nó trong tương lai của giao thức xe hơi phi tập trung của DIMO.
Đăng ký để nhận tin tức và cập nhật mới nhất từ DePIN