Aethir Đạt được Tiến Bộ Đáng Kể trong Cơ Sở Hạ Tầng Phi Tập Trung và Trí Tuệ Nhân Tạo

chủ nhật, tháng 6 2, 2024 12:10 PM
66

Aethir đang tiến bộ trong cơ sở hạ tầng vật lý phi tập trung với trí tuệ nhân tạo và học máy, thông báo hợp tác với GAM3S.GG để cải thiện trải nghiệm chơi game. Aethir Edge đã phân phối hơn 66.000 nút Checker, tận dụng sức mạnh GPU không sử dụng để kiếm $ATH token. Công ty nhắm mục tiêu giải quyết vấn đề thiếu hụt GPU toàn cầu bằng cách tổng hợp và phân phối lại tài nguyên, tiềm năng tăng cường khả năng tính toán GPU toàn cầu. Aethir cũng đã tổ chức ‘AI Dinner Salon’ tại Consensus 2024, thảo luận về tương lai của trí tuệ nhân tạo phi tập trung.

Related News

W2140 EXPO Nổi Bật Sự Đổi Mới của Titan Network và Pnuts.AI cover
3 ngày trước
W2140 EXPO Nổi Bật Sự Đổi Mới của Titan Network và Pnuts.AI
Vào ngày 12 tháng 11 năm 2024, W2140 EXPO, một hội nghị AI và Web3 hàng đầu toàn cầu, đã được khai mạc tại Bangkok. Được đồng tổ chức bởi Hiệp hội Doanh nghiệp Châu Á tại Thái Lan và chính phủ Thái Lan, sự kiện thu hút sự tham gia của hơn 1.000 tổ chức và hơn 200.000 người tham dự, đánh dấu đây là hội nghị lớn nhất trong loại hình này. Trong sự kiện, các thành viên của đội ngũ cốt lõi Titan Network đã tham gia vào các cuộc thảo luận có ý nghĩa với nhân viên Liên Hợp Quốc và Tiến sĩ James Ong, một học giả nổi bật và là người sáng lập Viện Quốc tế về Trí tuệ Nhân tạo (AIII). Bài phát biểu chính của Tiến sĩ Ong, có tiêu đề "AI và Web vì Nhân loại từ Đa số Toàn cầu," nhấn mạnh tầm quan trọng của các công nghệ phi tập trung trong bối cảnh hiện đại. Tiến sĩ Ong đã nêu bật Titan Network và đối tác hệ sinh thái của nó, Pnuts.AI, như những mô hình tiêu biểu trong các khung AIDePIN và AIDeHIN. Ông đã khen ngợi Titan vì đã phát triển một mạng lưới cơ sở hạ tầng vật lý phi tập trung (DePIN) tận dụng blockchain để sử dụng các nguồn lực không hoạt động. Sự đổi mới này cung cấp một lựa chọn phi tập trung, an toàn và minh bạch thay thế cho các dịch vụ đám mây truyền thống, có khả năng tiết kiệm tới 96% chi phí. Ngoài ra, ông cũng khen ngợi Pnuts.AI vì là công cụ dịch thuật thời gian thực mạnh mẽ nhất hiện có, được thiết kế để phá vỡ rào cản ngôn ngữ bằng cách sử dụng công nghệ AI và Web3, cung cấp dịch thuật từ lời nói sang lời nói nhanh chóng và chính xác trong hơn 200 ngôn ngữ. Hơn nữa, Tiến sĩ Ong đã thảo luận về tiềm năng tương lai của Pnuts.AI như một dự án Web3 nổi bật, hình dung một sự tích hợp liền mạch giữa AI, Web3 và DeHIN. Trong cách tiếp cận này, các chuyên gia ngôn ngữ hàng đầu sẽ hợp tác với các hệ thống AI để cải thiện độ chính xác của dịch thuật một cách đáng kể. Những chuyên gia này cũng sẽ cung cấp tài liệu đào tạo kỹ thuật số phong phú để cải thiện các mô hình dịch thuật, trong khi các cơ chế Web3 sẽ khuyến khích nỗ lực hợp tác giữa con người và AI, thúc đẩy một hệ sinh thái ứng dụng AI-Web3 mạnh mẽ. Sự tích hợp này hứa hẹn sẽ cách mạng hóa cách chúng ta tiếp cận dịch thuật ngôn ngữ và giao tiếp trong một thế giới toàn cầu hóa.
Cách mạng hóa hiệu quả AI: Tác động của thuật toán L-Mul cover
5 ngày trước
Cách mạng hóa hiệu quả AI: Tác động của thuật toán L-Mul
Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đã dẫn đến những tiến bộ đáng kể trong nhiều lĩnh vực, nhưng đi kèm với nó là một cái giá môi trường lớn do mức tiêu thụ năng lượng cao. Các mô hình AI, đặc biệt là những mô hình sử dụng mạng nơ-ron, yêu cầu sức mạnh tính toán đáng kể, điều này dẫn đến việc tiêu thụ điện năng khổng lồ. Ví dụ, việc vận hành ChatGPT vào đầu năm 2023 tiêu tốn khoảng 564 MWh điện mỗi ngày, tương đương với nhu cầu năng lượng của khoảng 18.000 hộ gia đình ở Mỹ. Nhu cầu năng lượng này chủ yếu được thúc đẩy bởi các phép toán số thực phức tạp cần thiết cho các phép tính của mạng nơ-ron, làm cho việc tìm kiếm các giải pháp tiết kiệm năng lượng trở nên quan trọng khi các hệ thống AI ngày càng phức tạp. Giới thiệu thuật toán L-Mul (Nhân Độ phức tạp Tuyến tính), một phát triển đột phá hứa hẹn sẽ giảm đáng kể gánh nặng năng lượng liên quan đến các phép tính AI. L-Mul hoạt động bằng cách xấp xỉ các phép nhân số thực bằng các phép cộng số nguyên đơn giản hơn, có thể được tích hợp vào các mô hình AI hiện có mà không cần tinh chỉnh. Cách tiếp cận đổi mới này đã chứng minh khả năng tiết kiệm năng lượng đáng kể, đạt tới 95% giảm tiêu thụ năng lượng cho các phép nhân tensor theo phần tử và 80% cho các phép tính tích phân. Quan trọng là, hiệu quả năng lượng này không làm giảm độ chính xác của các mô hình AI, đánh dấu một bước tiến quan trọng trong cuộc tìm kiếm AI bền vững. Ý nghĩa của L-Mul không chỉ dừng lại ở việc tiết kiệm năng lượng; nó nâng cao hiệu suất của các mô hình AI trong nhiều ứng dụng khác nhau, bao gồm các mô hình biến thể và các mô hình ngôn ngữ lớn (LLMs). Trong các bài kiểm tra như GSM8k và các nhiệm vụ trả lời câu hỏi hình ảnh, L-Mul đã vượt trội hơn các định dạng số thực truyền thống như FP8, cho thấy tiềm năng của nó trong việc xử lý các phép tính phức tạp một cách hiệu quả. Khi nhu cầu về AI tiếp tục tăng, L-Mul nổi bật như một giải pháp quan trọng không chỉ giải quyết cuộc khủng hoảng năng lượng liên quan đến AI mà còn mở đường cho một tương lai bền vững hơn trong phát triển công nghệ.
Tích hợp OpenAI với Solana Sử dụng Lit Protocol cover
5 ngày trước
Tích hợp OpenAI với Solana Sử dụng Lit Protocol
Trong một sự tích hợp mang tính đột phá, Lit Protocol đã chứng minh cách kết hợp an toàn các khả năng của OpenAI và blockchain Solana. Bằng cách sử dụng Wrapped Keys trên Solana, các nhà phát triển có thể ký các phản hồi được tạo ra bởi API OpenAI trong một Lit Action. Sự tích hợp này mở ra một loạt các ứng dụng sáng tạo, đặc biệt trong lĩnh vực các tác nhân tự động được hỗ trợ bởi AI. Những tác nhân này có thể hoạt động trên blockchain mà không tiết lộ các khóa API nhạy cảm, nhờ vào các Cặp Khóa Lập trình dựa trên ngưỡng (PKPs) và Môi trường Thực thi Đáng tin cậy (TEE) của Lit. Điều này đảm bảo rằng tất cả các hoạt động nhạy cảm đều được bảo vệ, cho phép các tác nhân AI tương tác với cả blockchain và các dịch vụ web truyền thống trong khi vẫn duy trì danh tính phi tập trung. Sự tích hợp cũng nhấn mạnh tầm quan trọng của tính toán và xử lý dữ liệu riêng tư. Bằng cách mã hóa dữ liệu và thực hiện các yêu cầu của mô hình ngôn ngữ lớn (LLM) trong TEE của Lit, các nhà phát triển có thể đảm bảo rằng thông tin nhạy cảm, chẳng hạn như hồ sơ y tế hoặc dữ liệu tài chính, vẫn được bảo mật trong suốt quá trình. TEE cung cấp sự cách ly ở cấp phần cứng, có nghĩa là ngay cả các nhà điều hành nút cũng không thể truy cập dữ liệu đã được giải mã. Việc mã hóa đầu cuối cho phép xử lý an toàn thông tin riêng tư, đảm bảo rằng tất cả các phép toán diễn ra trong một môi trường an toàn trước khi kết quả được mã hóa lại và gửi trở lại. Hơn nữa, sự tích hợp này tạo điều kiện cho việc tạo ra các chứng cứ mật mã cho việc đào tạo và suy diễn. Bằng cách hạn chế quyền ký PKP cho các băm CID IPFS cụ thể, các nhà phát triển có thể đảm bảo tính xác thực của nội dung được tạo ra bởi LLM. Hệ thống chứng cứ này đặc biệt có lợi cho các dấu vết kiểm toán và yêu cầu tuân thủ, vì nó cho phép các bên thứ ba xác minh tính xác thực của nội dung được sản xuất bởi LLM. Tổng thể, sự tích hợp này thể hiện tiềm năng của việc kết hợp AI với công nghệ blockchain, mở đường cho các ứng dụng an toàn và hiệu quả hơn trong tương lai.
Stratos Hợp Tác với DeepSouth AI để Tăng Cường Ứng Dụng Web3 cover
5 ngày trước
Stratos Hợp Tác với DeepSouth AI để Tăng Cường Ứng Dụng Web3
Stratos đã công bố một sự hợp tác thú vị với DeepSouth AI, một cái tên nổi bật trong lĩnh vực trí tuệ nhân tạo sử dụng công nghệ tính toán neuromorphic. Sự hợp tác này nhằm kết hợp khả năng AI tiên tiến của DeepSouth AI với các giải pháp hạ tầng phi tập trung của Stratos. Mục tiêu là tạo ra các ứng dụng phi tập trung thông minh và dễ tiếp cận hơn trong hệ sinh thái Web3, nâng cao chức năng tổng thể và trải nghiệm người dùng của các ứng dụng này. DeepSouth AI đang trong quá trình phát triển một nền tảng đa năng được trang bị một bộ công cụ AI mạnh mẽ. Những công cụ này được thiết kế đặc biệt để hỗ trợ các nhà phát triển và doanh nghiệp trong việc triển khai các giải pháp AI tiên tiến. Bằng cách tích hợp với hạ tầng mạnh mẽ và có thể mở rộng của Stratos, DeepSouth AI sẽ được hưởng lợi từ một giải pháp lưu trữ phi tập trung cung cấp độ tin cậy, bảo mật và hiệu suất, điều cần thiết để hỗ trợ các ứng dụng AI có nhu cầu cao. Thông qua sự hợp tác chiến lược này, Stratos sẽ cung cấp hạ tầng phi tập trung cần thiết để đáp ứng nhu cầu dữ liệu lớn của nền tảng DeepSouth AI. Sự hợp tác này hứa hẹn sẽ mở ra một kỷ nguyên mới cho các ứng dụng Web3, nơi trí tuệ nhân tạo và công nghệ phi tập trung có thể hoạt động hài hòa, cuối cùng thúc đẩy đổi mới và khả năng tiếp cận trong không gian kỹ thuật số.
io.net và NovaNet hợp tác để nâng cao xác minh GPU với zkGPU-ID cover
6 ngày trước
io.net và NovaNet hợp tác để nâng cao xác minh GPU với zkGPU-ID
Trong một động thái quan trọng nhằm nâng cao tính bảo mật và độ tin cậy trong các mạng máy tính phi tập trung, io.net, một mạng lưới hạ tầng vật lý phi tập trung (DePIN) chuyên về các cụm GPU, đã hình thành một quan hệ đối tác với NovaNet, một nhà lãnh đạo trong lĩnh vực chứng minh không kiến thức (ZKP). Sự hợp tác này nhằm phát triển một giải pháp đột phá được gọi là xác định GPU không kiến thức (zkGPU-ID), sẽ cung cấp các đảm bảo mật mã về tính xác thực và hiệu suất của các tài nguyên GPU. Bằng cách tận dụng công nghệ ZKP tiên tiến của NovaNet, io.net sẽ có khả năng xác thực rằng các GPU được sử dụng trong nền tảng phi tập trung của mình không chỉ đáp ứng mà còn có thể vượt qua các thông số kỹ thuật đã quảng cáo, từ đó nâng cao niềm tin của người dùng và độ tin cậy của tài nguyên. Tausif Ahmed, Phó Chủ tịch Phát triển Kinh doanh tại io.net, nhấn mạnh tầm quan trọng của quan hệ đối tác này, cho rằng việc tối ưu hóa phối hợp và xác minh trên một mạng lưới rộng lớn các nhà cung cấp GPU phân tán là rất quan trọng để xây dựng một mạng máy tính phi tập trung không cần cấp phép và sẵn sàng cho doanh nghiệp. Việc tích hợp zkGPU-ID của NovaNet sẽ cho phép io.net liên tục xác thực và kiểm tra các tài nguyên GPU của mình trên quy mô toàn cầu, đảm bảo rằng khách hàng có thể tự tin thuê các GPU đáng tin cậy và đáp ứng nhu cầu cụ thể của họ. Sáng kiến này đại diện cho một bước tiến quan trọng trong hạ tầng máy tính phi tập trung, nhằm giảm bớt những lo ngại về tính xác thực và hiệu suất của tài nguyên. Hơn nữa, giao thức zkGPU-ID sử dụng công nghệ zkVM (máy ảo không kiến thức) của NovaNet, đóng vai trò quan trọng trong việc tạo ra và xác minh các chứng minh mật mã về thông số kỹ thuật GPU với chi phí thấp hơn. Wyatt Benno, Đồng sáng lập Kỹ thuật của NovaNet, đã nhấn mạnh sự cần thiết của các ZKP hoạt động trên nhiều thiết bị và bối cảnh khác nhau để bảo vệ quyền riêng tư và khả năng xác minh cục bộ. zkEngine của NovaNet kiểm tra và xác định các GPU trong nền tảng của io.net một cách nghiêm ngặt, tạo ra một ZKP đảm bảo tính toàn vẹn của GPU. Quan hệ đối tác này thiết lập một tiêu chuẩn mới về tính minh bạch, độ tin cậy và bảo mật trong các mạng máy tính GPU phi tập trung, đánh dấu một bước tiến quan trọng trong ngành.
Falcon Mamba 7B: Một Bước Đột Phá Trong Các Mô Hình AI Không Cần Chú Ý cover
7 ngày trước
Falcon Mamba 7B: Một Bước Đột Phá Trong Các Mô Hình AI Không Cần Chú Ý
Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đang bị ảnh hưởng đáng kể bởi sự xuất hiện của các mô hình không cần chú ý, trong đó Falcon Mamba 7B là một ví dụ nổi bật. Được phát triển bởi Viện Đổi mới Công nghệ (TII) tại Abu Dhabi, mô hình đột phá này rời xa các kiến trúc dựa trên Transformer truyền thống, vốn phụ thuộc nhiều vào cơ chế chú ý. Thay vào đó, Falcon Mamba 7B sử dụng các Mô Hình Không Gian Trạng Thái (SSMs), cung cấp khả năng suy diễn nhanh hơn và tiết kiệm bộ nhớ hơn, giải quyết các thách thức tính toán liên quan đến các tác vụ dài ngữ cảnh. Bằng cách được đào tạo trên một tập dữ liệu rộng lớn gồm 5,5 triệu token, Falcon Mamba 7B tự định vị mình như một lựa chọn cạnh tranh với các mô hình hiện có như Gemma của Google và Phi của Microsoft. Kiến trúc của Falcon Mamba 7B được thiết kế để duy trì chi phí suy diễn không đổi, bất kể độ dài đầu vào, hiệu quả giải quyết vấn đề mở rộng bậc hai mà các mô hình Transformer gặp phải. Khả năng độc đáo này cho phép nó xuất sắc trong các ứng dụng yêu cầu xử lý ngữ cảnh dài, chẳng hạn như tóm tắt tài liệu và tự động hóa dịch vụ khách hàng. Mặc dù nó đã thể hiện hiệu suất vượt trội trong nhiều tiêu chuẩn xử lý ngôn ngữ tự nhiên, nhưng nó vẫn gặp phải những hạn chế trong các tác vụ đòi hỏi sự hiểu biết ngữ cảnh tinh vi. Tuy nhiên, hiệu suất bộ nhớ và tốc độ của nó khiến nó trở thành một lựa chọn hấp dẫn cho các tổ chức muốn tối ưu hóa giải pháp AI của mình. Những tác động của Falcon Mamba 7B không chỉ dừng lại ở các chỉ số hiệu suất. Hỗ trợ của nó cho việc lượng tử hóa cho phép triển khai hiệu quả trên cả GPU và CPU, tăng cường thêm tính linh hoạt của nó. Khi cảnh quan AI tiếp tục phát triển, sự thành công của Falcon Mamba 7B cho thấy rằng các mô hình không cần chú ý có thể sớm trở thành tiêu chuẩn cho nhiều ứng dụng. Với nghiên cứu và phát triển đang diễn ra, những mô hình này có thể vượt qua các kiến trúc truyền thống về cả tốc độ và độ chính xác, mở đường cho các ứng dụng đổi mới trong nhiều ngành công nghiệp khác nhau.