IoTeX 生態系統項目 Network3 推出 iOS 應用程式,專為 AI 開發人員設計
星期三, 六月 12, 2024 3:58 下午
213
6月12日,IoTeX 生態系統 AI Layer2 項目 Network3 近日宣布推出 iOS 應用程式,已在 Windows、macOS、Android 和 Linux 等多個平台上推出。用戶可以根據其設備適應性運行 Network3 节点,并獲得 $N3 獎勵。
Network3 旨在幫助全球 AI 開發人員高效、便捷、經濟地執行大規模推理、訓練或驗證模型。目前,它在全球擁有超過 200,000 個節點,覆蓋 181 個國家或地區。
IoTeX 是一個模塊化的 AI+DePIN 基礎設施平台。通過物理設備的獨特 ioID、物理世界數據驗證平台 W3bstream、視覺 AI+DePIN 數據中心 DePINscan 等,可以幫助 AI 和 DePIN 項目以低成本高效地訪問 Web3,實現大規模應用的可能性。
今年,IoTeX 生態系統發展迅速。基於 IoTeX 的模塊化支持,多個場景中的 AI 和 DePIN 項目,包括 AI、分佈式計算能力、能源系統、智能可穿戴裝置等,已經或將會得到開發和部署。
Related News
3 天前
W2140 EXPO 突顯 Titan Network 與 Pnuts.AI 的創新2024年11月12日,W2140 EXPO,一個全球頂尖的AI和Web3會議,在曼谷隆重開幕。此次活動由泰國亞洲商會和泰國政府共同主辦,吸引了超過1,000個組織和超過200,000名參加者,成為同類型中最大的會議。在活動期間,Titan Network核心團隊的成員與聯合國工作人員及人工智慧國際研究所(AIII)創辦人兼著名學者James Ong博士進行了深入的討論。Ong博士的主題演講《全球大多數的AI與網路為人類服務》強調了去中心化技術在當代的重要性。
Ong博士指出,Titan Network及其生態系統夥伴Pnuts.AI是AIDePIN和AIDeHIN框架內的典範。他讚揚Titan開發了一個去中心化的實體基礎設施網絡(DePIN),利用區塊鏈技術來利用閒置資源。這一創新為傳統雲服務提供了一個去中心化、安全且透明的替代方案,潛在節省高達96%的成本。此外,他讚揚Pnuts.AI是目前最強大的即時翻譯工具,旨在利用AI和Web3技術打破語言障礙,提供超過200種語言的快速且準確的語音翻譯。
此外,Ong博士還討論了Pnuts.AI作為一個突出Web3項目的未來潛力,展望AI、Web3和DeHIN的無縫整合。在這種方法中,頂尖的人類語言專家將與AI系統合作,以顯著提高翻譯的準確性。這些專家還將提供豐富的數位訓練材料來改善翻譯模型,而Web3機制將激勵人類與AI的合作努力,促進強大的AI-Web3應用生態系統。這種整合有望徹底改變我們在全球化世界中對語言翻譯和交流的方式。
5 天前
革命性提升AI效率:L-Mul算法的影響人工智慧(AI)的快速發展在各個領域帶來了顯著的進步,但由於其高能耗,卻也付出了沉重的環境代價。AI模型,特別是那些使用神經網絡的模型,需要大量的計算能力,這轉化為巨大的電力消耗。例如,2023年初運行ChatGPT每天消耗約564 MWh的電力,相當於約18,000個美國家庭的能源需求。這一能源需求主要是由於神經網絡計算所需的複雜浮點運算驅動的,隨著AI系統的複雜性增長,尋找節能解決方案變得至關重要。
L-Mul(線性複雜度乘法)算法的出現是一項突破性發展,承諾顯著減少與AI計算相關的能源負擔。L-Mul通過用更簡單的整數加法來近似浮點乘法,這可以無需微調就整合到現有的AI模型中。這種創新方法已顯示出顯著的節能效果,對於元素級張量乘法可達到高達95%的能耗減少,對於點積計算則可達到80%。重要的是,這種能源效率並不妨礙AI模型的準確性,標誌著在追求可持續AI方面的重要進展。
L-Mul的影響不僅限於節能;它還提升了AI模型在各種應用中的性能,包括變壓器模型和大型語言模型(LLMs)。在GSM8k和視覺問答任務等基準測試中,L-Mul的表現超過了傳統的浮點格式如FP8,展示了其高效處理複雜計算的潛力。隨著對AI的需求不斷上升,L-Mul作為一個關鍵解決方案,不僅解決了與AI相關的能源危機,還為技術發展的可持續未來鋪平了道路。
5 天前
使用 Lit Protocol 將 OpenAI 與 Solana 整合在一次突破性的整合中,Lit Protocol 展示了如何安全地結合 OpenAI 的能力與 Solana 區塊鏈。通過在 Solana 上使用 Wrapped Keys,開發者可以在 Lit Action 中簽署由 OpenAI API 生成的回應。這一整合開啟了無數創新的應用,特別是在 AI 驅動的自主代理領域。這些代理可以在區塊鏈上運作,而不暴露敏感的 API 密鑰,這要歸功於 Lit 的基於閾值的可編程密鑰對 (PKPs) 和可信執行環境 (TEE)。這確保了所有敏感操作都保持受到保護,允許 AI 代理在保持去中心化身份的同時,與區塊鏈和傳統網絡服務互動。
這一整合還強調了私密計算和數據處理的重要性。通過在 Lit 的 TEE 中加密數據並執行大型語言模型 (LLM) 的提示,開發者可以確保敏感信息,例如醫療記錄或財務數據,在整個過程中保持安全。TEE 提供硬體級的隔離,這意味著即使是節點運營商也無法訪問解密後的數據。這種端到端的加密允許安全地處理私密信息,確保所有計算都在安全環境中進行,然後結果被重新加密並發送回來。
此外,這一整合促進了訓練和推理的密碼證明生成。通過將 PKP 簽名權限限制為特定的 IPFS CID 哈希,開發者可以保證 LLM 生成內容的真實性。這一證明系統對於審計追蹤和合規要求特別有利,因為它使第三方能夠驗證 LLM 生成內容的真實性。總體而言,這一整合展示了將 AI 與區塊鏈技術結合的潛力,為未來更安全和高效的應用鋪平了道路。
5 天前
Stratos 與 DeepSouth AI 合作以增強 Web3 應用程序Stratos 宣布與 DeepSouth AI 建立令人興奮的合作夥伴關係,DeepSouth AI 是一個在人工智慧領域中使用神經形計算技術的知名公司。這次合作旨在將 DeepSouth AI 的尖端 AI 能力與 Stratos 的去中心化基礎設施解決方案相結合。目標是創造更智能和更易於訪問的去中心化應用程序,提升這些應用程序在 Web3 生態系統中的整體功能和用戶體驗。
DeepSouth AI 正在開發一個多功能平台,配備了一整套強大的 AI 工具。這些工具專門設計用於幫助開發人員和企業實施先進的 AI 解決方案。通過與 Stratos 的強大且可擴展的基礎設施集成,DeepSouth AI 將受益於一個去中心化的存儲解決方案,提供可靠性、安全性和性能,這對於支持高需求的 AI 驅動應用程序至關重要。
通過這一戰略合作,Stratos 將提供必要的去中心化基礎設施,以滿足 DeepSouth AI 平台的高容量數據需求。這一合作關係有望開創 Web3 應用程序的新時代,人工智慧和去中心化技術可以和諧共存,最終推動數字領域的創新和可及性。
6 天前
io.net 與 NovaNet 合作提升 GPU 驗證,推出 zkGPU-ID在一項重要舉措中,io.net(專注於 GPU 集群的去中心化物理基礎設施網絡)與零知識證明(ZKP)領導者 NovaNet 建立了合作夥伴關係,以增強去中心化計算網絡的安全性和可靠性。這項合作旨在開發一種名為零知識 GPU 識別(zkGPU-ID)的突破性解決方案,該方案將提供有關 GPU 資源的真實性和性能的密碼學保證。通過利用 NovaNet 的先進 ZKP 技術,io.net 將能夠驗證其去中心化平台中使用的 GPU 不僅符合而且可能超過其廣告規格,從而增強用戶信任和資源可靠性。
io.net 的商務發展副總裁 Tausif Ahmed 強調了這一合作夥伴關係的重要性,指出在廣泛的分散 GPU 供應商網絡中優化協調和驗證對於建立一個無需許可且適合企業的去中心化計算網絡至關重要。NovaNet 的 zkGPU-ID 的整合將使 io.net 能夠在全球範圍內持續驗證和測試其 GPU 資源,確保客戶可以自信地租用可靠且符合其特定需求的 GPU。這一舉措代表了去中心化計算基礎設施的一項重大進展,旨在緩解對資源真實性和性能的擔憂。
此外,zkGPU-ID 協議利用了 NovaNet 的 zkVM(零知識虛擬機)技術,該技術在以較低成本生成和驗證 GPU 規格的密碼學證明中發揮了重要作用。NovaNet 的技術聯合創始人 Wyatt Benno 強調了 ZKP 在各種設備和上下文中運行以實現隱私和本地可驗證性的重要性。NovaNet 的 zkEngine 嚴格測試和識別 io.net 平台中的 GPU,創建一個確保 GPU 完整性的 ZKP。這一合作夥伴關係為去中心化 GPU 計算網絡的透明度、可靠性和安全性設立了新的標準,標誌著行業的一個關鍵進步。
7 天前
Falcon Mamba 7B:無需注意的人工智慧模型的突破人工智慧(AI)的快速演變受到無需注意模型出現的顯著影響,其中 Falcon Mamba 7B 是一個顯著的例子。該模型由阿布達比的科技創新研究所(TII)開發,這一突破性模型脫離了傳統的基於 Transformer 的架構,這些架構過度依賴注意機制。相反,Falcon Mamba 7B 利用狀態空間模型(SSMs),提供更快且更節省記憶體的推理,解決了與長上下文任務相關的計算挑戰。通過在 5.5 兆個標記的廣泛數據集上進行訓練,Falcon Mamba 7B 自我定位為與 Google 的 Gemma 和 Microsoft 的 Phi 等現有模型的競爭替代品。
Falcon Mamba 7B 的架構旨在保持恆定的推理成本,無論輸入長度如何,有效解決了困擾 Transformer 模型的二次擴展問題。這一獨特的能力使其在需要長上下文處理的應用中表現出色,例如文檔摘要和客戶服務自動化。儘管它在各種自然語言處理基準中展現了優越的性能,但在需要複雜上下文理解的任務中仍面臨限制。儘管如此,它的記憶體效率和速度使其成為希望優化 AI 解決方案的組織的有力選擇。
Falcon Mamba 7B 的影響不僅限於性能指標。它對量化的支持使其能夠在 GPU 和 CPU 上高效部署,進一步增強了其多功能性。隨著 AI 領域的演變,Falcon Mamba 7B 的成功表明,無需注意的模型可能很快成為許多應用的標準。隨著持續的研究和開發,這些模型有可能在速度和準確性上超越傳統架構,為各行各業的創新應用鋪平道路。