Cách mạng hóa hiệu quả AI: Tác động của thuật toán L-Mul

thứ tư, tháng 11 13, 2024 12:00 AM
2,528

Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đã dẫn đến những tiến bộ đáng kể trong nhiều lĩnh vực, nhưng đi kèm với nó là một cái giá môi trường lớn do mức tiêu thụ năng lượng cao. Các mô hình AI, đặc biệt là những mô hình sử dụng mạng nơ-ron, yêu cầu sức mạnh tính toán đáng kể, điều này dẫn đến việc tiêu thụ điện năng khổng lồ. Ví dụ, việc vận hành ChatGPT vào đầu năm 2023 tiêu tốn khoảng 564 MWh điện mỗi ngày, tương đương với nhu cầu năng lượng của khoảng 18.000 hộ gia đình ở Mỹ. Nhu cầu năng lượng này chủ yếu được thúc đẩy bởi các phép toán số thực phức tạp cần thiết cho các phép tính của mạng nơ-ron, làm cho việc tìm kiếm các giải pháp tiết kiệm năng lượng trở nên quan trọng khi các hệ thống AI ngày càng phức tạp.

Giới thiệu thuật toán L-Mul (Nhân Độ phức tạp Tuyến tính), một phát triển đột phá hứa hẹn sẽ giảm đáng kể gánh nặng năng lượng liên quan đến các phép tính AI. L-Mul hoạt động bằng cách xấp xỉ các phép nhân số thực bằng các phép cộng số nguyên đơn giản hơn, có thể được tích hợp vào các mô hình AI hiện có mà không cần tinh chỉnh. Cách tiếp cận đổi mới này đã chứng minh khả năng tiết kiệm năng lượng đáng kể, đạt tới 95% giảm tiêu thụ năng lượng cho các phép nhân tensor theo phần tử và 80% cho các phép tính tích phân. Quan trọng là, hiệu quả năng lượng này không làm giảm độ chính xác của các mô hình AI, đánh dấu một bước tiến quan trọng trong cuộc tìm kiếm AI bền vững.

Ý nghĩa của L-Mul không chỉ dừng lại ở việc tiết kiệm năng lượng; nó nâng cao hiệu suất của các mô hình AI trong nhiều ứng dụng khác nhau, bao gồm các mô hình biến thể và các mô hình ngôn ngữ lớn (LLMs). Trong các bài kiểm tra như GSM8k và các nhiệm vụ trả lời câu hỏi hình ảnh, L-Mul đã vượt trội hơn các định dạng số thực truyền thống như FP8, cho thấy tiềm năng của nó trong việc xử lý các phép tính phức tạp một cách hiệu quả. Khi nhu cầu về AI tiếp tục tăng, L-Mul nổi bật như một giải pháp quan trọng không chỉ giải quyết cuộc khủng hoảng năng lượng liên quan đến AI mà còn mở đường cho một tương lai bền vững hơn trong phát triển công nghệ.

Related News

Tích hợp OpenAI với Solana Sử dụng Lit Protocol cover
2 ngày trước
Tích hợp OpenAI với Solana Sử dụng Lit Protocol
Trong một sự tích hợp mang tính đột phá, Lit Protocol đã chứng minh cách kết hợp an toàn các khả năng của OpenAI và blockchain Solana. Bằng cách sử dụng Wrapped Keys trên Solana, các nhà phát triển có thể ký các phản hồi được tạo ra bởi API OpenAI trong một Lit Action. Sự tích hợp này mở ra một loạt các ứng dụng sáng tạo, đặc biệt trong lĩnh vực các tác nhân tự động được hỗ trợ bởi AI. Những tác nhân này có thể hoạt động trên blockchain mà không tiết lộ các khóa API nhạy cảm, nhờ vào các Cặp Khóa Lập trình dựa trên ngưỡng (PKPs) và Môi trường Thực thi Đáng tin cậy (TEE) của Lit. Điều này đảm bảo rằng tất cả các hoạt động nhạy cảm đều được bảo vệ, cho phép các tác nhân AI tương tác với cả blockchain và các dịch vụ web truyền thống trong khi vẫn duy trì danh tính phi tập trung. Sự tích hợp cũng nhấn mạnh tầm quan trọng của tính toán và xử lý dữ liệu riêng tư. Bằng cách mã hóa dữ liệu và thực hiện các yêu cầu của mô hình ngôn ngữ lớn (LLM) trong TEE của Lit, các nhà phát triển có thể đảm bảo rằng thông tin nhạy cảm, chẳng hạn như hồ sơ y tế hoặc dữ liệu tài chính, vẫn được bảo mật trong suốt quá trình. TEE cung cấp sự cách ly ở cấp phần cứng, có nghĩa là ngay cả các nhà điều hành nút cũng không thể truy cập dữ liệu đã được giải mã. Việc mã hóa đầu cuối cho phép xử lý an toàn thông tin riêng tư, đảm bảo rằng tất cả các phép toán diễn ra trong một môi trường an toàn trước khi kết quả được mã hóa lại và gửi trở lại. Hơn nữa, sự tích hợp này tạo điều kiện cho việc tạo ra các chứng cứ mật mã cho việc đào tạo và suy diễn. Bằng cách hạn chế quyền ký PKP cho các băm CID IPFS cụ thể, các nhà phát triển có thể đảm bảo tính xác thực của nội dung được tạo ra bởi LLM. Hệ thống chứng cứ này đặc biệt có lợi cho các dấu vết kiểm toán và yêu cầu tuân thủ, vì nó cho phép các bên thứ ba xác minh tính xác thực của nội dung được sản xuất bởi LLM. Tổng thể, sự tích hợp này thể hiện tiềm năng của việc kết hợp AI với công nghệ blockchain, mở đường cho các ứng dụng an toàn và hiệu quả hơn trong tương lai.
Stratos Hợp Tác với DeepSouth AI để Tăng Cường Ứng Dụng Web3 cover
2 ngày trước
Stratos Hợp Tác với DeepSouth AI để Tăng Cường Ứng Dụng Web3
Stratos đã công bố một sự hợp tác thú vị với DeepSouth AI, một cái tên nổi bật trong lĩnh vực trí tuệ nhân tạo sử dụng công nghệ tính toán neuromorphic. Sự hợp tác này nhằm kết hợp khả năng AI tiên tiến của DeepSouth AI với các giải pháp hạ tầng phi tập trung của Stratos. Mục tiêu là tạo ra các ứng dụng phi tập trung thông minh và dễ tiếp cận hơn trong hệ sinh thái Web3, nâng cao chức năng tổng thể và trải nghiệm người dùng của các ứng dụng này. DeepSouth AI đang trong quá trình phát triển một nền tảng đa năng được trang bị một bộ công cụ AI mạnh mẽ. Những công cụ này được thiết kế đặc biệt để hỗ trợ các nhà phát triển và doanh nghiệp trong việc triển khai các giải pháp AI tiên tiến. Bằng cách tích hợp với hạ tầng mạnh mẽ và có thể mở rộng của Stratos, DeepSouth AI sẽ được hưởng lợi từ một giải pháp lưu trữ phi tập trung cung cấp độ tin cậy, bảo mật và hiệu suất, điều cần thiết để hỗ trợ các ứng dụng AI có nhu cầu cao. Thông qua sự hợp tác chiến lược này, Stratos sẽ cung cấp hạ tầng phi tập trung cần thiết để đáp ứng nhu cầu dữ liệu lớn của nền tảng DeepSouth AI. Sự hợp tác này hứa hẹn sẽ mở ra một kỷ nguyên mới cho các ứng dụng Web3, nơi trí tuệ nhân tạo và công nghệ phi tập trung có thể hoạt động hài hòa, cuối cùng thúc đẩy đổi mới và khả năng tiếp cận trong không gian kỹ thuật số.
io.net và NovaNet hợp tác để nâng cao xác minh GPU với zkGPU-ID cover
3 ngày trước
io.net và NovaNet hợp tác để nâng cao xác minh GPU với zkGPU-ID
Trong một động thái quan trọng nhằm nâng cao tính bảo mật và độ tin cậy trong các mạng máy tính phi tập trung, io.net, một mạng lưới hạ tầng vật lý phi tập trung (DePIN) chuyên về các cụm GPU, đã hình thành một quan hệ đối tác với NovaNet, một nhà lãnh đạo trong lĩnh vực chứng minh không kiến thức (ZKP). Sự hợp tác này nhằm phát triển một giải pháp đột phá được gọi là xác định GPU không kiến thức (zkGPU-ID), sẽ cung cấp các đảm bảo mật mã về tính xác thực và hiệu suất của các tài nguyên GPU. Bằng cách tận dụng công nghệ ZKP tiên tiến của NovaNet, io.net sẽ có khả năng xác thực rằng các GPU được sử dụng trong nền tảng phi tập trung của mình không chỉ đáp ứng mà còn có thể vượt qua các thông số kỹ thuật đã quảng cáo, từ đó nâng cao niềm tin của người dùng và độ tin cậy của tài nguyên. Tausif Ahmed, Phó Chủ tịch Phát triển Kinh doanh tại io.net, nhấn mạnh tầm quan trọng của quan hệ đối tác này, cho rằng việc tối ưu hóa phối hợp và xác minh trên một mạng lưới rộng lớn các nhà cung cấp GPU phân tán là rất quan trọng để xây dựng một mạng máy tính phi tập trung không cần cấp phép và sẵn sàng cho doanh nghiệp. Việc tích hợp zkGPU-ID của NovaNet sẽ cho phép io.net liên tục xác thực và kiểm tra các tài nguyên GPU của mình trên quy mô toàn cầu, đảm bảo rằng khách hàng có thể tự tin thuê các GPU đáng tin cậy và đáp ứng nhu cầu cụ thể của họ. Sáng kiến này đại diện cho một bước tiến quan trọng trong hạ tầng máy tính phi tập trung, nhằm giảm bớt những lo ngại về tính xác thực và hiệu suất của tài nguyên. Hơn nữa, giao thức zkGPU-ID sử dụng công nghệ zkVM (máy ảo không kiến thức) của NovaNet, đóng vai trò quan trọng trong việc tạo ra và xác minh các chứng minh mật mã về thông số kỹ thuật GPU với chi phí thấp hơn. Wyatt Benno, Đồng sáng lập Kỹ thuật của NovaNet, đã nhấn mạnh sự cần thiết của các ZKP hoạt động trên nhiều thiết bị và bối cảnh khác nhau để bảo vệ quyền riêng tư và khả năng xác minh cục bộ. zkEngine của NovaNet kiểm tra và xác định các GPU trong nền tảng của io.net một cách nghiêm ngặt, tạo ra một ZKP đảm bảo tính toàn vẹn của GPU. Quan hệ đối tác này thiết lập một tiêu chuẩn mới về tính minh bạch, độ tin cậy và bảo mật trong các mạng máy tính GPU phi tập trung, đánh dấu một bước tiến quan trọng trong ngành.
Falcon Mamba 7B: Một Bước Đột Phá Trong Các Mô Hình AI Không Cần Chú Ý cover
4 ngày trước
Falcon Mamba 7B: Một Bước Đột Phá Trong Các Mô Hình AI Không Cần Chú Ý
Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đang bị ảnh hưởng đáng kể bởi sự xuất hiện của các mô hình không cần chú ý, trong đó Falcon Mamba 7B là một ví dụ nổi bật. Được phát triển bởi Viện Đổi mới Công nghệ (TII) tại Abu Dhabi, mô hình đột phá này rời xa các kiến trúc dựa trên Transformer truyền thống, vốn phụ thuộc nhiều vào cơ chế chú ý. Thay vào đó, Falcon Mamba 7B sử dụng các Mô Hình Không Gian Trạng Thái (SSMs), cung cấp khả năng suy diễn nhanh hơn và tiết kiệm bộ nhớ hơn, giải quyết các thách thức tính toán liên quan đến các tác vụ dài ngữ cảnh. Bằng cách được đào tạo trên một tập dữ liệu rộng lớn gồm 5,5 triệu token, Falcon Mamba 7B tự định vị mình như một lựa chọn cạnh tranh với các mô hình hiện có như Gemma của Google và Phi của Microsoft. Kiến trúc của Falcon Mamba 7B được thiết kế để duy trì chi phí suy diễn không đổi, bất kể độ dài đầu vào, hiệu quả giải quyết vấn đề mở rộng bậc hai mà các mô hình Transformer gặp phải. Khả năng độc đáo này cho phép nó xuất sắc trong các ứng dụng yêu cầu xử lý ngữ cảnh dài, chẳng hạn như tóm tắt tài liệu và tự động hóa dịch vụ khách hàng. Mặc dù nó đã thể hiện hiệu suất vượt trội trong nhiều tiêu chuẩn xử lý ngôn ngữ tự nhiên, nhưng nó vẫn gặp phải những hạn chế trong các tác vụ đòi hỏi sự hiểu biết ngữ cảnh tinh vi. Tuy nhiên, hiệu suất bộ nhớ và tốc độ của nó khiến nó trở thành một lựa chọn hấp dẫn cho các tổ chức muốn tối ưu hóa giải pháp AI của mình. Những tác động của Falcon Mamba 7B không chỉ dừng lại ở các chỉ số hiệu suất. Hỗ trợ của nó cho việc lượng tử hóa cho phép triển khai hiệu quả trên cả GPU và CPU, tăng cường thêm tính linh hoạt của nó. Khi cảnh quan AI tiếp tục phát triển, sự thành công của Falcon Mamba 7B cho thấy rằng các mô hình không cần chú ý có thể sớm trở thành tiêu chuẩn cho nhiều ứng dụng. Với nghiên cứu và phát triển đang diễn ra, những mô hình này có thể vượt qua các kiến trúc truyền thống về cả tốc độ và độ chính xác, mở đường cho các ứng dụng đổi mới trong nhiều ngành công nghiệp khác nhau.
Dogecoin Duy Trì Thanh Khoản Giữa Những Biến Động Thị Trường, Bittensor Đối Mặt Với Thách Thức cover
4 ngày trước
Dogecoin Duy Trì Thanh Khoản Giữa Những Biến Động Thị Trường, Bittensor Đối Mặt Với Thách Thức
Trong bối cảnh tiền điện tử hiện tại, Dogecoin (DOGE) đã thể hiện sự kiên cường đáng kể bằng cách duy trì thanh khoản ổn định bất chấp những biến động của thị trường. Sau cuộc bầu cử gần đây ở Mỹ, đã có một sự gia tăng đáng kể hoạt động từ các nhà đầu tư lớn, hay còn gọi là cá voi, với dòng chảy ròng của cá voi tăng gần 957%. Sự bùng nổ này đã dẫn đến giao dịch tăng vọt từ khoảng 45 triệu lên hơn 430 triệu DOGE chỉ trong một ngày. Mặc dù giá của Dogecoin đã trải qua một đợt tăng nhẹ khoảng 10% trong thời gian bầu cử, nhưng sau đó đã giảm khoảng 6%, ổn định ở mức thấp hơn một chút. Tuy nhiên, khối lượng giao dịch của nó vẫn mạnh mẽ với hơn 3,8 tỷ đô la, với vốn hóa thị trường gần 29 tỷ đô la, nhấn mạnh sự hiện diện mạnh mẽ của nó trên thị trường và sự quan tâm liên tục từ các nhà đầu tư lớn. Ngược lại, Bittensor (TAO) đang phải đối mặt với những thách thức khi trải qua sự giảm sút về thanh khoản, gây lo ngại cho các nhà đầu tư của nó. Với vốn hóa thị trường khoảng 3,7 tỷ đô la và khối lượng giao dịch hàng ngày khoảng 165 triệu đô la, hoạt động giao dịch giảm cho thấy sự thay đổi trong sự tham gia của nhà đầu tư. Hiện tại, có khoảng 7,4 triệu token TAO đang lưu hành trong tổng cung tối đa là 21 triệu. Sự giảm sút về thanh khoản có thể dẫn đến sự biến động giá tăng, khiến các nhà đầu tư cần theo dõi chặt chẽ những xu hướng này. Một sự giảm tiếp tục có thể ảnh hưởng đến giá trị của token và sức hấp dẫn tổng thể đối với các nhà đầu tư tiềm năng. Ngược lại, IntelMarkets (INTL) đang nổi lên như một lựa chọn hứa hẹn trong lĩnh vực giao dịch tiền điện tử, với nền tảng giao dịch độc đáo được hỗ trợ bởi AI được xây dựng trên một blockchain hiện đại. Hiện đang ở Giai đoạn 5 của đợt bán trước, IntelMarkets đã huy động được khoảng 2 triệu đô la, với gần 10 triệu token đã được bán với giá 0,045 Tether, dự kiến sẽ tăng lên khoảng 0,054. Các bot tự học của nền tảng xử lý hơn 100.000 điểm dữ liệu, cho phép các nhà giao dịch đưa ra quyết định thông minh dựa trên dữ liệu thời gian thực. Với nguồn cung token hạn chế và công nghệ tiên tiến, IntelMarkets tự định vị mình như một nền tảng chiến lược cho các nhà đầu tư tìm kiếm sự tăng trưởng và ổn định liên tục trong một thị trường biến động.
Stratos Hợp Tác Với MetaTrust Labs Để Tăng Cường Bảo Mật Web3 cover
4 ngày trước
Stratos Hợp Tác Với MetaTrust Labs Để Tăng Cường Bảo Mật Web3
Trong một phát triển quan trọng cho hệ sinh thái Web3, Stratos đã công bố một sự hợp tác với MetaTrust Labs, một nhà cung cấp hàng đầu về công cụ bảo mật AI Web3 và dịch vụ kiểm toán mã. Sự hợp tác này được thiết lập để nâng cao bảo mật và khả năng phục hồi của các ứng dụng Web3 bằng cách kết hợp các biện pháp bảo mật tiên tiến được hỗ trợ bởi AI với các giải pháp lưu trữ phi tập trung của Stratos. Mục tiêu của sự hợp tác là tạo ra một cơ sở hạ tầng mạnh mẽ không chỉ bảo vệ dữ liệu mà còn đảm bảo độ tin cậy và hiệu quả của các ứng dụng Web3, một khía cạnh quan trọng đối với cả nhà phát triển và người dùng. MetaTrust Labs, được ươm tạo tại Đại học Công nghệ Nanyang ở Singapore, được công nhận vì cách tiếp cận đổi mới trong bảo mật Web3. Công ty chuyên phát triển các giải pháp AI tiên tiến nhằm hỗ trợ các nhà phát triển và các bên liên quan trong việc bảo vệ các ứng dụng và hợp đồng thông minh của họ. Sự tập trung vào bảo mật này là rất cần thiết trong bối cảnh kỹ thuật số đang phát triển nhanh chóng, nơi mà các lỗ hổng có thể dẫn đến những rủi ro đáng kể. Bằng cách tận dụng các công nghệ AI, MetaTrust Labs nhằm tạo ra các hệ sinh thái kỹ thuật số an toàn và hiệu quả hơn có thể chống lại các mối đe dọa tiềm tàng. Stratos, nổi tiếng với cam kết đối với các giải pháp hạ tầng phi tập trung, đóng một vai trò quan trọng trong sự hợp tác này. Công ty cung cấp một khung lưu trữ phi tập trung hỗ trợ khả năng sẵn có cao, khả năng mở rộng và tính phục hồi cho các nền tảng Web3. Bằng cách tích hợp các giải pháp lưu trữ phi tập trung của mình với các công cụ bảo mật do AI điều khiển của MetaTrust Labs, sự hợp tác hứa hẹn sẽ mang lại một mức độ bảo vệ chưa từng có cho mã và dữ liệu trong các ứng dụng Web3. Sự hợp tác này không chỉ nâng cao sự tự tin về bảo mật cho các nhà phát triển mà còn góp phần vào tính toàn vẹn tổng thể của không gian Web3, mở đường cho một tương lai kỹ thuật số an toàn hơn.