Aethir Đạt được Tiến Bộ Đáng Kể trong Cơ Sở Hạ Tầng Phi Tập Trung và Trí Tuệ Nhân Tạo

chủ nhật, tháng 6 2, 2024 12:10 PM
126

Aethir đang tiến bộ trong cơ sở hạ tầng vật lý phi tập trung với trí tuệ nhân tạo và học máy, thông báo hợp tác với GAM3S.GG để cải thiện trải nghiệm chơi game. Aethir Edge đã phân phối hơn 66.000 nút Checker, tận dụng sức mạnh GPU không sử dụng để kiếm $ATH token. Công ty nhắm mục tiêu giải quyết vấn đề thiếu hụt GPU toàn cầu bằng cách tổng hợp và phân phối lại tài nguyên, tiềm năng tăng cường khả năng tính toán GPU toàn cầu. Aethir cũng đã tổ chức ‘AI Dinner Salon’ tại Consensus 2024, thảo luận về tương lai của trí tuệ nhân tạo phi tập trung.

Mua Ngay tại

Related News

CUDOS Intercloud Cách mạng hóa Triển khai AI với Mẫu Một Nhấp Chuột cover
2 ngày trước
CUDOS Intercloud Cách mạng hóa Triển khai AI với Mẫu Một Nhấp Chuột
Trong một bước tiến quan trọng cho điện toán phân tán, CUDOS Intercloud đã giới thiệu các mẫu một nhấp chuột giúp đơn giản hóa việc triển khai các ứng dụng AI. Cách tiếp cận đổi mới này tập trung vào khả năng tiếp cận và tính dễ sử dụng, cho phép các nhà phát triển khởi chạy ứng dụng với nỗ lực tối thiểu. Bằng cách loại bỏ những phức tạp truyền thống liên quan đến cơ sở hạ tầng AI, chẳng hạn như sự phụ thuộc và khóa nhà cung cấp, CUDOS Intercloud cho phép triển khai ngay lập tức mà không cần KYC hay đăng ký. Người dùng có thể kết nối ví kỹ thuật số của họ và bắt đầu chỉ trong vài giây, điều này đặc biệt có lợi cho các nhóm cần lặp lại nhanh chóng trong bối cảnh AI và Web3 phát triển nhanh chóng. Nền tảng CUDOS Intercloud hiện có một danh mục đa dạng các ứng dụng sẵn sàng khởi chạy được thiết kế cho nhiều người dùng khác nhau, bao gồm các nhà phát triển AI và giáo viên. Các sản phẩm chính bao gồm JupyterLab cho thí nghiệm cá nhân, JupyterHub cho môi trường hợp tác, và vLLM cho việc phục vụ các mô hình ngôn ngữ lớn quy mô lớn. Ngoài ra, các công cụ như Ollama cung cấp giao diện thân thiện với người dùng cho những người mới, trong khi OpenManus thể hiện tiềm năng của các trợ lý AI có khả năng tác động. Những ứng dụng này tạo thành một nền tảng vững chắc cho một ngăn xếp AI phân tán, nâng cao khả năng tiếp cận và khả năng mở rộng cho các nhóm thiếu vốn và các nhà nghiên cứu toàn cầu. Nhìn về phía trước, CUDOS Intercloud cam kết mở rộng danh mục ứng dụng của mình với nhiều công cụ mã nguồn mở và giải pháp sẵn sàng cho doanh nghiệp hơn. Nền tảng này nhằm sâu sắc hóa các tích hợp với các API Web3 và hỗ trợ cung cấp tài nguyên dựa trên hợp đồng thông minh. Khi bối cảnh của các ứng dụng phân tán phát triển, các mẫu một nhấp chuột sẽ phục vụ như một giao diện quan trọng giữa người dùng và cơ sở hạ tầng bên dưới, thúc đẩy sự phát triển của nền kinh tế AI. CUDOS Intercloud mời người dùng chia sẻ ý tưởng cho các mẫu và tính năng trong tương lai, thúc đẩy một môi trường hợp tác cho sự đổi mới trong điện toán phân tán.
Aleph.im Đổi Thương Hiệu Thành Aleph Cloud, Ra Mắt Chương Trình Tăng Tốc 1 Triệu USD Cho Các Startup Web3 cover
3 ngày trước
Aleph.im Đổi Thương Hiệu Thành Aleph Cloud, Ra Mắt Chương Trình Tăng Tốc 1 Triệu USD Cho Các Startup Web3
Aleph.im, một người chơi nổi bật trong hạ tầng phi tập trung, đã chính thức đổi thương hiệu thành Aleph Cloud, đánh dấu một sự tiến hóa quan trọng trong các dịch vụ của mình. Sự chuyển mình này, được công bố vào ngày 23 tháng 4, phản ánh tham vọng của công ty trong việc trở thành nhà cung cấp đám mây phi tập trung toàn diện. Việc đổi thương hiệu đi kèm với một bộ sản phẩm mở rộng bao gồm tính toán phi tập trung, lưu trữ, máy ảo và tài nguyên GPU, tất cả nhằm hỗ trợ các ứng dụng Web3 và AI thế hệ tiếp theo. Cùng với việc đổi thương hiệu này, Aleph Cloud đã giới thiệu một chương trình tăng tốc trị giá 1 triệu USD nhằm hỗ trợ các nhà xây dựng và startup Web3 trong việc chuyển đổi khỏi các dịch vụ đám mây tập trung như AWS và Google Cloud, hiện đang thống trị bối cảnh hạ tầng blockchain. Chương trình tăng tốc mới ra mắt nhằm cung cấp các nguồn lực thiết yếu như tín dụng tính toán, lưu trữ và hỗ trợ kỹ thuật trên nhiều hệ sinh thái khác nhau, bao gồm Ethereum, Base, Solana, BSC và Avalanche. Jonathan Schemoul, Giám đốc điều hành của Aleph Cloud, nhấn mạnh tầm quan trọng của sự phi tập trung trong các ứng dụng blockchain, cho rằng việc phụ thuộc vào các dịch vụ tập trung tiềm ẩn nhiều rủi ro. Chương trình được cấu trúc để hỗ trợ các nhà phát triển giai đoạn đầu bằng cách cung cấp quyền truy cập miễn phí vào các dịch vụ đám mây cho các dự án có sản phẩm cụ thể hoặc bằng chứng về khái niệm, từ đó thúc đẩy một hệ sinh thái ứng dụng phi tập trung phát triển mạnh mẽ. Chiến lược của Aleph Cloud định vị nó như một đối thủ trong thị trường hạ tầng phi tập trung đang phát triển, nơi nó phải đối mặt với các đối thủ đã được thiết lập như Filecoin và Akash. Schemoul đã nhấn mạnh thiết kế độc đáo tất cả trong một của nền tảng, cho phép người dùng quản lý tính toán, lưu trữ và lưu trữ thông qua một giao diện duy nhất. Với sự tập trung vào tuân thủ và quyền riêng tư dữ liệu, Aleph Cloud hoạt động như một nền tảng tuân thủ GDPR, không phụ thuộc vào chuỗi, đảm bảo rằng cả công ty và các nhà điều hành nút của nó đều không thể truy cập dữ liệu đã lưu trữ. Cam kết này đối với sự phi tập trung và quyền riêng tư của người dùng đã tạo nên sự khác biệt cho Aleph Cloud khi nó tìm cách định nghĩa lại bối cảnh dịch vụ đám mây cho các nhà phát triển Web3 và AI.
CUDOS Intercloud: Tiên phong trong Điện toán Bền vững cho AI cover
3 ngày trước
CUDOS Intercloud: Tiên phong trong Điện toán Bền vững cho AI
CUDOS Intercloud đang tiên phong trong một kỷ nguyên mới của điện toán bền vững như một phần của Liên minh Siêu trí tuệ Nhân tạo. Công ty nhằm mục đích tái định nghĩa cảnh quan hạ tầng AI bằng cách tập trung vào các thực hành điện toán xanh. Vào ngày 24 tháng 4 năm 2025, CUDOS sẽ tham gia sự kiện Peace One Day #Ai2Peace, nơi Giám đốc điều hành Matt Hawkins và Phó Giám đốc Bán hàng Pete Hill sẽ thảo luận về tầm quan trọng của hạ tầng AI phân tán trong việc thúc đẩy một tương lai hòa bình và bền vững. Sáng kiến này nhấn mạnh sự cần thiết phải xây dựng một hệ sinh thái AI công bằng và mở, ưu tiên trách nhiệm môi trường. Điện toán đám mây truyền thống có tác động môi trường đáng kể, với một trung tâm dữ liệu 1MW tiêu thụ hàng triệu kilowatt-giờ điện và một lượng lớn nước hàng năm. Dấu chân carbon của những hạ tầng tập trung như vậy là rất lớn, như được chứng minh bởi các hoạt động dữ liệu của Google tiêu thụ 27 terawatt-giờ năng lượng chỉ trong năm 2024. CUDOS Intercloud giải quyết những sự không hiệu quả này bằng cách sử dụng các trung tâm dữ liệu hiện có, tối ưu hóa công suất của chúng mà không cần thêm tài nguyên. Cách tiếp cận này không chỉ giảm chi phí mà còn giảm thiểu dấu chân carbon liên quan đến phát triển hạ tầng mới. CUDOS Intercloud cam kết với sự bền vững ở cốt lõi, hoạt động trên 100% năng lượng tái tạo và đảm bảo rằng các cụm tập trung vào GPU của mình sử dụng các thực hành bền vững. Công ty đã tiết kiệm được chi phí đáng kể bằng cách tối đa hóa hiệu quả của các trung tâm dữ liệu hiện có và chuyển hướng năng lượng lãng phí vào sử dụng hiệu quả. Bằng cách tham gia các sáng kiến như chương trình Stripe Climate và cam kết nguồn lực cho các dự án loại bỏ carbon, CUDOS không chỉ đưa ra các tuyên bố về sự bền vững mà còn đang tích cực làm việc hướng tới một tương lai xanh hơn. Cam kết này định vị CUDOS như một lựa chọn khả thi thay thế cho các công ty công nghệ lớn truyền thống, thúc đẩy một cách tiếp cận điện toán đám mây phân tán và thân thiện với môi trường.
Theta Labs và Houston Rockets Ra Mắt Linh Vật AI 'ClutchBot' cover
3 ngày trước
Theta Labs và Houston Rockets Ra Mắt Linh Vật AI 'ClutchBot'
Theta Labs, một nhà cung cấp hạ tầng đám mây phi tập trung nổi bật, đã hợp tác với Houston Rockets để giới thiệu một linh vật AI sáng tạo mang tên "ClutchBot." Linh vật kỹ thuật số này được thiết kế để nâng cao sự tương tác của người hâm mộ bằng cách cung cấp thông tin thời gian thực về đội bóng, bao gồm lịch thi đấu, chi tiết vé, thống kê cầu thủ và thông tin về địa điểm. Người hâm mộ có thể tương tác với ClutchBot thông qua trang web chính thức của Houston Rockets, đặt các câu hỏi như "Khi nào là trận đấu tiếp theo?" hoặc "Rockets đã giành được bao nhiêu chức vô địch?" AI được đào tạo trên dữ liệu phong phú về Rockets và NBA, đảm bảo phản hồi chính xác và kịp thời. Sự hợp tác giữa Theta Labs và Houston Rockets nhằm tạo ra một trải nghiệm người hâm mộ sâu sắc hơn, vượt qua các phương pháp tương tác truyền thống. Bằng cách sử dụng công nghệ EdgeCloud tiên tiến của Theta, ClutchBot đại diện cho một bước tiến quan trọng trong cách các đội thể thao có thể duy trì sự tương tác liên tục và cá nhân hóa với người hâm mộ của họ. Sáng kiến này không chỉ nâng cao trải nghiệm kỹ thuật số cho người hâm mộ mà còn thiết lập một tiêu chuẩn mới cho sự tương tác của người hâm mộ trong thể thao chuyên nghiệp, cho phép các cổ động viên cảm thấy gắn bó hơn với đội bóng yêu thích của họ. Dự kiến ra mắt vào mùa thu năm 2025, ClutchBot sẽ có sẵn cho người hâm mộ trên toàn thế giới, đánh dấu một thời điểm quan trọng trong giao điểm giữa thể thao và công nghệ AI. Như đã lưu ý bởi Chủ tịch Houston Rockets, Gretchen Sheirr, sự hợp tác này sẽ cho phép đội bóng cung cấp một trải nghiệm hấp dẫn và cá nhân hóa hơn thông qua các nền tảng kỹ thuật số của họ. Với sự hỗ trợ từ các ông lớn trong ngành và một hạ tầng phi tập trung vững chắc, Theta Labs tiếp tục dẫn đầu trong lĩnh vực AI và truyền thông, mở đường cho những đổi mới trong công nghệ thể thao.
AI: Biên giới tiếp theo trong tình yêu thể thao cover
5 ngày trước
AI: Biên giới tiếp theo trong tình yêu thể thao
Trí tuệ nhân tạo (AI) đang có những bước tiến đáng kể vào nhiều ngành công nghiệp khác nhau, nhưng theo Mitch Liu, Giám đốc điều hành của Theta Labs, lĩnh vực tình yêu thể thao đại diện cho một biên giới đầy hứa hẹn. Khác với các lĩnh vực khác, nơi AI chủ yếu tự động hóa các nhiệm vụ, thể thao mang đến cơ hội độc đáo cho AI để nâng cao trải nghiệm của người hâm mộ. Với dữ liệu có cấu trúc như thống kê, lịch thi đấu và chỉ số hiệu suất, AI có thể phân tích và trình bày thông tin theo cách mà người hâm mộ dễ dàng tiếp nhận. Tính chu kỳ của các mùa thể thao cho phép thu thập dữ liệu liên tục và thử nghiệm các tính năng, tạo ra một môi trường lý tưởng cho việc tích hợp AI. Các nghiên cứu gần đây cho thấy AI đã và đang biến đổi cảnh quan thể thao thông qua phân tích cải tiến và tương tác cá nhân hóa với người hâm mộ. Ví dụ, chương trình Vận động viên Kỹ thuật số của NFL sử dụng học máy để đánh giá dữ liệu cầu thủ và dự đoán rủi ro chấn thương, điều này không chỉ bảo vệ các vận động viên mà còn làm phong phú thêm hiểu biết của người hâm mộ về trò chơi. Thêm vào đó, các đội NHL như Vegas Golden Knights và New Jersey Devils đã hợp tác với Theta Labs để tạo ra các chatbot powered by AI giúp người hâm mộ giải đáp thắc mắc về các trận đấu, vé và tin tức đội bóng. Những đổi mới này đang nâng cao trải nghiệm của người hâm mộ bằng cách cung cấp thông tin kịp thời, chính xác thông qua các nền tảng tương tác. Tiềm năng của AI trong thể thao không chỉ giới hạn ở các giải đấu truyền thống mà còn mở rộng sang thể thao điện tử, nơi các môi trường kỹ thuật số mang đến nhiều cơ hội hơn cho sự tương tác. AI có thể tạo ra những trải nghiệm siêu cá nhân hóa, phục vụ cả người hâm mộ bình thường và người hâm mộ tận tâm bằng cách cung cấp những hiểu biết được điều chỉnh dựa trên dữ liệu trò chơi theo thời gian thực. Tuy nhiên, các tổ chức thể thao cần triển khai những công nghệ này một cách cẩn thận, đảm bảo rằng chúng bổ sung chứ không thay thế các yếu tố cảm xúc cốt lõi của tình yêu thể thao. Khi AI tiếp tục phát triển, ngành công nghiệp thể thao đứng trước ngưỡng cửa của một kỷ nguyên chuyển đổi, với tiềm năng định nghĩa lại cách người hâm mộ tương tác với các đội bóng yêu thích và nâng cao trải nghiệm tổng thể của việc tiêu thụ thể thao.
Phòng Nghiên Cứu AI của Stanford Hợp Tác với Theta EdgeCloud để Tăng Cường Nghiên Cứu cover
9 ngày trước
Phòng Nghiên Cứu AI của Stanford Hợp Tác với Theta EdgeCloud để Tăng Cường Nghiên Cứu
Phòng nghiên cứu AI của Phó Giáo sư Kỹ thuật Stanford Ellen Vitercik sẽ tận dụng cơ sở hạ tầng đám mây lai của Theta EdgeCloud để nâng cao nghiên cứu của mình trong lĩnh vực tối ưu hóa rời rạc và lý luận thuật toán. Sự hợp tác này sẽ cho phép phòng thí nghiệm sử dụng GPU phi tập trung của EdgeCloud, cung cấp sức mạnh tính toán có thể mở rộng và hiệu suất cao với chi phí cạnh tranh. Việc tích hợp công nghệ này dự kiến sẽ tăng tốc đáng kể quá trình đào tạo các mô hình AI và tạo điều kiện cho các sáng kiến nghiên cứu tiên tiến. Các cơ sở giáo dục hàng đầu khác, như Đại học Quốc gia Seoul, KAIST và Đại học Oregon, cũng đang sử dụng cơ sở hạ tầng của EdgeCloud để nâng cao năng suất nghiên cứu AI của họ. Ellen Vitercik chuyên về học máy, lý luận thuật toán và giao điểm giữa tính toán và kinh tế. Phòng nghiên cứu của bà tập trung vào một số lĩnh vực chính, bao gồm ứng dụng của các mô hình ngôn ngữ lớn (LLMs) cho tối ưu hóa, lựa chọn nội dung thuật toán và tổng quát hóa các thuật toán phân cụm trên nhiều kích thước tập dữ liệu khác nhau. Bằng cách sử dụng tài nguyên của Theta EdgeCloud, phòng thí nghiệm nhằm khám phá cách AI có thể nâng cao quy trình ra quyết định trong các bối cảnh kinh tế, chẳng hạn như chiến lược định giá và tiếp thị mục tiêu. Cơ sở hạ tầng GPU lai của Theta EdgeCloud được thiết kế để cung cấp sức mạnh tính toán theo yêu cầu, vừa có thể mở rộng vừa tiết kiệm chi phí, khiến nó trở thành giải pháp lý tưởng cho nghiên cứu học thuật. Sự hợp tác với phòng thí nghiệm của Vitercik minh họa xu hướng ngày càng tăng trong việc tích hợp công nghệ điện toán đám mây tiên tiến vào nghiên cứu học thuật, đặc biệt là trong lĩnh vực AI. Quan hệ đối tác này không chỉ hứa hẹn thúc đẩy các mục tiêu nghiên cứu của Vitercik mà còn đóng góp vào bối cảnh nghiên cứu AI rộng lớn hơn tại nhiều tổ chức trên toàn thế giới.
Đăng ký để nhận tin tức và cập nhật mới nhất từ DePIN