最新DePIN人工智能新聞
查看人工智能專案
6 個月前
CreatorBid 與 io.net 合作,透過去中心化 GPU 網絡提升 AI 發展
在 AI 創作者經濟的一個重要發展中,io.net 宣布與專注於創作者和品牌的 AI 驅動工具平台 CreatorBid 建立戰略合作夥伴關係。這一合作將使 CreatorBid 能夠利用 io.net 的去中心化 GPU 網絡,提升其影像和視頻模型的可擴展性和效率。通過利用這一去中心化基礎設施,CreatorBid 旨在優化資源利用,同時降低成本,使高性能計算對從事 AI 技術的企業更具可及性。
io.net 的商業發展副總裁 Tausif Ahmed 強調了這一合作夥伴關係的優勢,表示這使得 CreatorBid 能夠利用他們的去中心化 GPU 網絡來實現先進的 AI 解決方案。CreatorBid 的首席執行官 Phil Kothe 也表達了相同的看法,強調可擴展的 GPU 資源能夠賦能 AI 影響者和代理人。這一合作夥伴關係將徹底改變內容創作,因為它使創作者能夠自主地與觀眾互動並製作多樣化的內容格式,為數位創業的新時代鋪平道路。
CreatorBid 在 AI 創作者經濟中處於前沿,提供工具使創作者能夠從其內容中獲利並圍繞 AI 代理人建立充滿活力的社群。這些可自定義的數位角色促進了互動和參與,促進了創作者與粉絲之間的共同擁有。通過將尖端 AI 工具與區塊鏈技術相結合,CreatorBid 正在重新定義創作者的格局,並將自己定位為向自主創作者經濟過渡的關鍵角色。與 io.net 的合作不僅展示了去中心化 GPU 網絡的實際應用,還加速了 CreatorBid 對於 AI 驅動的內容創作和品牌未來的願景。

6 個月前
去中心化邊緣AI:民主化人工智慧的接觸
人工智慧(AI)的領域正在經歷重大的轉變,去中心化邊緣AI的出現旨在民主化對AI技術的接觸。目前,少數幾家大型科技公司,包括OpenAI、IBM、亞馬遜和谷歌,主導著AI基礎設施層,為較小的實體創造了障礙,限制了全球數百萬用戶和企業的接觸。這種集中控制不僅提高了成本,還限制了創新。去中心化邊緣AI,以Network3等倡議為例,旨在通過整合去中心化物理基礎設施(DePIN)和邊緣AI來解決這些挑戰,允許AI系統在各種設備上運行,同時確保隱私和社區參與。
邊緣AI的一個關鍵優勢是其能夠減少對大型科技巨頭擁有的數據中心的依賴。傳統的AI模型,特別是大型語言模型(LLMs)如GPT-3,訓練所需的資源相當可觀,通常成本在50萬到460萬美元之間。這一財務障礙進一步鞏固了大型科技的壟斷。相比之下,邊緣AI使開發者能夠在較小的設備上進行模型的訓練和部署,從智能手機到物聯網設備,擴大了可接觸性並促進了創新。然而,為了讓邊緣AI發揮其全部潛力,設備必須能夠有效地通信和共享資源,克服計算和存儲的限制。
Network3創新的去中心化聯邦學習框架代表了協作AI訓練的一個重大進步。通過允許多個設備或“節點”集中資源,這一框架提高了AI系統的效率和增長。強加密方法的整合,例如匿名無證書簽名(CLSC),確保了安全的數據共享,同時保持隱私。此外,使用Reed-Solomon編碼優化數據準確性。因此,Network3生態系統中的邊緣設備可以進行本地分析,實現低延遲和實時響應。這種去中心化的方法不僅減輕了集中壟斷,還為開發者和用戶開辟了新的收入來源,最終使AI變得更加可接觸和對所有人有利。

6 個月前
微調 Llama 3.2:提升模型性能的綜合指南
Meta 最近發布的 Llama 3.2 標誌著大型語言模型 (LLMs) 微調的重要進展,使機器學習工程師和數據科學家更容易針對特定任務提升模型性能。本指南概述了微調過程,包括必要的設置、數據集創建和訓練腳本配置。微調使得像 Llama 3.2 這樣的模型能夠專注於特定領域,例如客戶支持,從而產生比通用模型更準確和相關的回應。
要開始微調 Llama 3.2,使用者首先必須設置他們的環境,特別是如果他們使用的是 Windows。這涉及安裝 Windows 子系統 Linux (WSL) 以訪問 Linux 終端,配置適當的 NVIDIA 驅動程序以獲取 GPU 訪問權限,以及安裝必要的工具,如 Python 開發依賴項。環境準備好後,使用者可以創建一個針對微調量身定制的數據集。例如,可以生成一個數據集來訓練 Llama 3.2 回答簡單的數學問題,這是一個針對性微調的簡單示例。
在準備好數據集後,下一步是使用 Unsloth 庫設置訓練腳本,該庫通過低秩適應 (LoRA) 簡化了微調過程。這涉及安裝所需的包,加載模型並開始訓練過程。一旦模型完成微調,評估其性能至關重要,方法是生成測試集並將模型的回應與預期答案進行比較。雖然微調在提高特定任務的模型準確性方面提供了顯著的好處,但考慮到其局限性以及對於較不複雜需求的提示調整的潛在有效性是至關重要的。

6 個月前
Stratos 與 Tatsu 合作增強去中心化身份驗證
在區塊鏈和人工智慧領域的一項重要發展中,Stratos 宣布與 Tatsu 建立戰略合作夥伴關係,Tatsu 是一個在 Bittensor 網絡和 TAO 生態系統內運作的先驅去中心化 AI 加密項目。Tatsu 在去中心化身份驗證方面取得了顯著進展,利用 GitHub 活動和加密貨幣餘額等先進指標來創建獨特的人類分數。這種創新的方法增強了驗證過程,使其在去中心化環境中更加可靠和高效。隨著 Tatsu Identity 2.0 的即將推出和新的文件理解子網,Tatsu 將重新定義去中心化 AI 的能力。
這項合作將使 Tatsu 整合 Stratos 的去中心化存儲解決方案,這將顯著增強他們的數據管理和安全協議。這種合作不僅是技術的合併,更是專業知識的融合,旨在推動去中心化領域的可能性。通過利用 Stratos 強大的基礎設施,Tatsu 可以增強其產品,確保其身份驗證過程既安全又高效。這種協同效應預計將促進 TAO 生態系統內的創新和增長,為 Tatsu 的先進技術開啟新的應用大門。
隨著兩家公司共同踏上這段旅程,對區塊鏈社區的影響是相當深遠的。去中心化存儲與尖端 AI 解決方案的整合可能會在各個領域的身份驗證過程中帶來變革性的變化。這項合作展示了將去中心化技術與 AI 結合的潛力,以創造更安全、高效和創新的解決方案,為未來在區塊鏈領域的合作樹立了先例。

6 個月前
Google 推出 Imagen 3:AI 圖像生成的新時代
Google 正式推出了 Imagen 3,這是其最新的文本轉圖像 AI 模型,距離 2024 年 Google I/O 的首次公告已經過去五個月。這個新版本承諾提供更高的圖像質量,具有更好的細節、更好的光照和比其前身更少的視覺瑕疵。Imagen 3 設計用於更準確地解釋自然語言提示,使用戶能夠生成特定的圖像,而無需複雜的提示工程。它可以生成各種風格的圖像,從超現實的照片到異想天開的插圖,甚至可以清晰地在圖像中呈現文本,為創新的應用鋪平道路,例如自定義賀卡和宣傳材料。
安全性和負責任的使用是 Imagen 3 開發的重中之重。Google DeepMind 實施了嚴格的數據過濾和標記技術,以最小化生成有害或不當內容的風險。隨著生成 AI 技術越來越多地融入各行各業,對倫理標準的承諾至關重要。對於有興趣嘗試 Imagen 3 的用戶,可以通過 Google 的 Gemini 聊天機器人輸入自然語言提示,讓模型根據他們的描述創建詳細的圖像。
儘管有這些進步,Imagen 3 仍然存在一些限制,可能會影響某些專業人士的可用性。目前,它僅支持正方形的長寬比,這可能限制需要橫向或豎向格式的項目。此外,它缺乏編輯功能,如修補或擴展,並且用戶無法對其圖像應用藝術濾鏡或風格。與 Midjourney、DALL-E 3 和 Flux 等競爭對手相比,Imagen 3 在圖像質量和自然語言處理方面表現出色,但在用戶控制和自定義選項方面則有所不足。總體而言,雖然 Imagen 3 是一個強大的高品質圖像生成工具,但其限制可能會使尋求更多創作靈活性的用戶感到沮喪。

6 個月前
Render 網絡以「統一」革新數字內容創作
在最近由 Render 基金會空間在 X 上舉辦的討論中,OTOY 的首席執行官兼 Render 網絡創始人 Jules Urbach 提供了有關他們在製作《765874 統一》這部慶祝《星際迷航》30 週年的短片過程中所取得的突破性成就的見解。Urbach 強調了 Render 網絡如何革新數字內容創作,使創作者能夠探索電影、藝術和敘事的新領域。這部電影的製作展示了 Render 網絡在民主化高品質內容創作方面的潛力,讓人們能夠在不需要巨額預算的情況下創造出令人印象深刻的視覺效果。
此次對話的一個亮點是創新性地使用機器學習 (ML) 來增強傳統電影製作過程。Urbach 指出,雖然 OTOY 在使用數字雙胞胎和面部替換方面有著悠久的歷史,但技術的進步使他們能夠顯著減少勞動時間。AI 的整合簡化了演員面部的建模,消除了繁瑣的面部標記的需要。這不僅加快了製作過程,還使藝術家能夠更多地專注於敘事,而不是技術挑戰,展示了 AI 和 GPU 渲染如何改變創作環境。
展望未來,Render 網絡計劃在黑色星期五來臨之際推出新的工具和整合。計劃包括將 AI 工具整合到 3D 創作工作流程中,並擴大對全息渲染的支持。Urbach 的願景依然明確:為創作者提供他們需要的資源,以講述引人入勝的故事。《統一》的成功證明了 Render 網絡的創新精神,為未來的創作者開辟了推動數字內容創作可能性的邊界。

6 個月前
AI 實驗室與 Theta EdgeCloud 合作以提升 AI 教育
AI 實驗室是韓國領先的電子學習提供商,最近與 Theta EdgeCloud 簽訂了一項多年協議,這標誌著在提升人工智慧 (AI) 和數據分析 (DA) 教育產品方面的重要一步。這項合作使 AI 實驗室能夠利用 Theta EdgeCloud 的分佈式 GPU 資源,從而促進先進的 AI 教育、模型訓練和生成式 AI 應用。AI 實驗室專注於實踐經驗和互動內容,旨在通過其創新的平台 CodingX 提供高品質的教育,該平台因其在全球教授 AI 和編程技能的有效性而受到認可。
與 Theta EdgeCloud 的合作預計將為 AI 實驗室帶來幾個優勢。通過利用按需 GPU 資源,該機構可以增強課程的靈活性,允許將 AI 無縫地整合到其教育計劃中。此外,這項合作將通過 Theta 的分佈式基礎設施降低運營成本,使其服務的擴展更具成本效益。最重要的是,AI 驅動的學習方法的整合將促進個性化的學習體驗,以滿足每位學生的獨特需求,從而提高整體表現。
Theta EdgeCloud 最近迅速擴大了其客戶基礎,與首爾國立大學和北京大學等著名機構建立了合作關係。這一增長凸顯了教育領域對可擴展和成本效益技術解決方案的需求日益增加。AI 實驗室的首席執行官 John Choi 表示對這一合作充滿信心,強調 Theta 在韓國大學中的良好聲譽及其在未來幾年內顯著擴大 AI 實驗室運營的潛力。這一合作關係有望滿足 AI 驅動的未來對技術技能日益增長的需求,將 AI 實驗室定位為不斷發展的教育格局中的關鍵角色。

6 個月前
使用 Q-LoRA 微調 Llama 3.2 11B 以進行提取式問題回答
大型語言模型(LLMs)已成為自然語言處理中的重要工具,能夠處理各種任務。然而,由於其廣泛的訓練,它們在特定應用中可能無法表現出色,除非進一步調整。微調技術,如 Q-LoRA,允許研究人員針對特定任務(例如提取式問題回答)調整像 Llama 3.2 11B 這樣的預訓練模型。本文概述了使用 Q-LoRA 在 SQuAD v2 數據集上微調 Llama 3.2 11B 的過程,展示了通過此方法所實現的性能提升。
LoRA,或低秩適應,是一種技術,通過向現有模型引入新權重而不改變原始參數。通過添加調整某些層輸出的適配器權重,LoRA 使模型能夠保留其預訓練知識,同時獲得針對特定任務的新能力。在這次實驗中,重點是微調 Llama 3.2 11B 以進行提取式問題回答,旨在提取精確的文本片段,直接回答用戶查詢,而不是總結或重新表述內容。該實驗在使用 A100 GPU 的 Google Colab 平台上進行,Hugging Face Transformers 庫促進了實施。
微調過程的結果令人鼓舞,顯示出模型在驗證集上的性能顯著提升。BERT 分數從 0.6469 提升至 0.7505,而精確匹配分數從 0.116 上升至 0.418。這些提升表明 Q-LoRA 技術有效地將 Llama 3.2 11B 模型調整為提取式問題回答任務。本文作為希望將類似方法應用於其他模型和任務的研究人員的指南,突顯了微調在自然語言處理領域的潛力。

6 個月前
io.net 與 OpenLedger 合作以增強 AI 模型開發
本週,去中心化的分散式 GPU 資源平台 io.net 宣布與專為人工智慧 (AI) 設計的數據區塊鏈 OpenLedger 建立戰略合作夥伴關係。這一合作將使 OpenLedger 能夠利用 io.net 的全球 GPU 計算資源,增強其精煉和訓練 AI 模型的能力。被稱為 GPU 互聯網的 io.net 提供了一個強大的分散式 GPU 資源網絡,讓 OpenLedger 能夠加速其 AI 模型的開發,並使開發者能夠創建更高效的基於 AI 的去中心化應用程式 (DApps)。根據 io.net 商務發展副總裁 Tausif Ahmad 的說法,這一合作將為 OpenLedger 提供可靠的基礎設施,以擴展其 AI 模型並解鎖新的使用案例,強化其在去中心化 AI 領域的創新提供者地位。
除了提供 GPU 資源外,io.net 的基礎設施還將支持 AI 模型的推理和託管,確保最佳性能和可擴展性。這一合作預計將提升 OpenLedger 作為可靠數據集提供者的聲譽,推動區塊鏈和 AI 交匯處的創新。該合作旨在安全高效地創造高質量數據,同時推動創新和性能。OpenLedger 的一名團隊成員強調,利用 io.net 的 GPU 基礎設施將使用戶能夠更高效地微調 AI 模型,最終導致可信且可解釋的 AI 模型的開發。
OpenLedger 選擇 io.net 作為其 GPU 資源提供者的一個重要因素是所提供的具成本效益和可擴展的計算解決方案。這一合作將使 OpenLedger 能夠擴展其服務,而不受集中雲服務提供商高成本的限制。通過處理更大的數據集並以前所未有的效率開發 AI 模型,OpenLedger 旨在推動去中心化 AI 創新的邊界。最終,這一合作與 OpenLedger 的使命相一致,即促進開放、協作的數據環境,同時推動基於區塊鏈的 AI 解決方案的採用。

6 個月前
Stratos 與 Cortensor 合作以增強去中心化的 AI 基礎設施
在去中心化 AI 領域的一個重要發展中,Stratos 宣布與去中心化 AI 推理網絡的領導者 Cortensor 建立合作夥伴關係。這一合作旨在通過將 Stratos 強大的去中心化存儲和流媒體解決方案整合到 Cortensor 創新的 AI 生態系統中來增強去中心化的 AI 基礎設施。該合作夥伴關係將提供安全且可擴展的數據存儲,確保公共和私有 AI 工作負載都能無縫且可靠地運行,從而提高整體網絡性能。
這一合作的主要特點之一是引入實時推理流媒體能力。Stratos 的先進視頻流媒體 API 將使 Cortensor 能夠提供即時的 AI 推理輸出,促進動態應用程序和用戶驅動的任務。這一增強預計將優化 AI 工作負載的性能,因為 Stratos 的高吞吐量基礎設施將改善節點之間的通信,確保即使在高需求環境中也能有效流動數據。這是使先進 AI 工具變得更易於獲得和成本效益更高的重要一步。
兩家公司對去中心化 AI 的未來有著共同的願景,Cortensor 的推理證明(PoI)和有用工作證明(PoUW)系統驗證任務並獎勵貢獻者的有意義工作。Stratos 擁有支持 Web3 和 AI 解決方案的去中心化基礎設施,擁有超過 900 個活躍的全球存儲節點和 21 PB 的容量。這一合作夥伴關係不僅體現了他們對創新的承諾,還旨在為企業、開發者和社區驅動的礦工開啟新的可能性,最終建立一個更具包容性和可擴展的 AI 生態系統。請繼續關注更多更新,因為他們將繼續推動去中心化 AI 解決方案的邊界。
註冊以獲取最新的DePIN新聞和更新