最新のDePIN AI ニュース

AIプロジェクトを見る
CreatorBidがio.netと提携し、分散型GPUネットワークを通じてAI開発を強化 cover
6ヶ月前

CreatorBidがio.netと提携し、分散型GPUネットワークを通じてAI開発を強化

AIクリエイター経済における重要な発展として、io.netはクリエイターとブランドのためのAI駆動ツールを専門とするプラットフォームCreatorBidとの戦略的パートナーシップを発表しました。このコラボレーションにより、CreatorBidはio.netの分散型GPUネットワークを活用できるようになり、画像およびビデオモデルのスケーラビリティと効率が向上します。この分散型インフラを活用することで、CreatorBidはリソースの利用効率を最適化し、コストを最小限に抑え、高性能コンピューティングをAI技術に従事する企業にとってよりアクセスしやすくすることを目指しています。 io.netのビジネス開発担当副社長Tausif Ahmedは、このパートナーシップの利点を強調し、CreatorBidが高度なAIソリューションのために彼らの分散型GPUネットワークを活用できることを述べました。CreatorBidのCEOであるPhil Kotheもこの考えに賛同し、スケーラブルなGPUリソースがAIインフルエンサーやエージェントを強化する可能性を強調しました。このパートナーシップは、クリエイターがオーディエンスと関わり、多様なコンテンツ形式を自律的に制作できるようにすることで、コンテンツ制作を革命的に変えることが期待されています。 CreatorBidはAIクリエイター経済の最前線に立ち、クリエイターがコンテンツを収益化し、AIエージェントの周りに活気あるコミュニティを構築できるツールを提供しています。これらのカスタマイズ可能なデジタルペルソナは、エンゲージメントとインタラクションを促進し、クリエイターとファンの間の共同所有を育んでいます。最先端のAIツールをブロックチェーン技術と統合することで、CreatorBidはクリエイターの風景を再定義し、自律的なクリエイター経済への移行における重要なプレーヤーとしての地位を確立しています。io.netとのパートナーシップは、分散型GPUネットワークの実用的なアプリケーションを示すだけでなく、コンテンツ制作とブランディングにおけるAI駆動の未来に向けたCreatorBidのビジョンを加速させるものです。
分散型EdgeAI:人工知能へのアクセスを民主化する cover
6ヶ月前

分散型EdgeAI:人工知能へのアクセスを民主化する

人工知能(AI)の風景は、分散型EdgeAIの登場により大きな変革を遂げています。これはAI技術へのアクセスを民主化することを目的としています。現在、OpenAI、IBM、Amazon、Googleなどの主要なテクノロジー企業がAIインフラストラクチャ層を支配しており、小規模な企業にとって障壁を生み出し、世界中の何百万ものユーザーや企業のアクセスを制限しています。この中央集権的な管理は、コストを引き上げるだけでなく、革新を制約します。Network3のような取り組みによって示される分散型EdgeAIは、分散型物理インフラストラクチャ(DePIN)とEdgeAIを統合することで、これらの課題に対処し、AIシステムがさまざまなデバイスで動作しながらプライバシーとコミュニティの関与を確保します。 EdgeAIの重要な利点の一つは、テクノロジーの巨人が所有する大規模データセンターへの依存を減らす能力です。従来のAIモデル、特にGPT-3のような大規模言語モデル(LLM)は、トレーニングに多大なリソースを必要とし、コストは50万ドルから460万ドルの間に及ぶことがよくあります。この財政的障壁は、ビッグテックの独占をさらに強化します。対照的に、EdgeAIは開発者がスマートフォンからIoT機器までの小型デバイスでモデルをトレーニングおよび展開できるようにし、アクセスの幅を広げ、革新を促進します。ただし、EdgeAIがその潜在能力を最大限に発揮するためには、デバイスが効果的に通信し、リソースを共有できる必要があり、計算とストレージの制限を克服する必要があります。 Network3の革新的な分散型連合学習フレームワークは、協調的なAIトレーニングにおいて重要な前進を示しています。複数のデバイスまたは「ノード」がリソースをプールできるようにすることで、このフレームワークはAIシステムの効率と成長を向上させます。匿名証明書なしの署名暗号化(CLSC)などの強力な暗号化手法の統合により、プライバシーを維持しながら安全なデータ共有が保証されます。さらに、リード・ソロモン符号を使用することでデータの精度が最適化されます。その結果、Network3エコシステム内のエッジデバイスはローカル分析を実行でき、低遅延とリアルタイムの応答を実現します。この分散型アプローチは、中央集権的な独占を緩和するだけでなく、開発者やユーザーに新しい収益源を開くことで、最終的にはAIをよりアクセスしやすく、すべての人にとって有益にします。
Llama 3.2のファインチューニング:モデルパフォーマンス向上のための包括的ガイド cover
6ヶ月前

Llama 3.2のファインチューニング:モデルパフォーマンス向上のための包括的ガイド

MetaによるLlama 3.2の最近のリリースは、大規模言語モデル(LLM)のファインチューニングにおける重要な進展を示しており、機械学習エンジニアやデータサイエンティストが特定のタスクに対するモデルパフォーマンスを向上させることを容易にしています。このガイドでは、必要なセットアップ、データセットの作成、トレーニングスクリプトの設定を含むファインチューニングプロセスを概説します。ファインチューニングにより、Llama 3.2のようなモデルはカスタマーサポートなどの特定のドメインに特化することができ、一般的なモデルと比較してより正確で関連性のある応答を提供します。 Llama 3.2のファインチューニングを開始するには、ユーザーはまず環境を設定する必要があります。特にWindowsを使用している場合、LinuxターミナルにアクセスするためにWindows Subsystem for Linux(WSL)をインストールし、適切なNVIDIAドライバーでGPUアクセスを設定し、Python開発依存関係などの必須ツールをインストールする必要があります。環境が整ったら、ファインチューニング用に特化したデータセットを作成できます。たとえば、Llama 3.2を使って簡単な数学の質問に答えるように訓練するためのデータセットを生成することができ、これはターゲットを絞ったファインチューニングの簡単な例となります。 データセットの準備が整ったら、次のステップはUnslothライブラリを使用してトレーニングスクリプトを設定することです。これにより、必要なパッケージをインストールし、モデルをロードし、トレーニングプロセスを開始することで、ファインチューニングプロセスが簡素化されます。モデルがファインチューニングされたら、テストセットを生成し、モデルの応答を期待される回答と比較することで、そのパフォーマンスを評価することが重要です。ファインチューニングは特定のタスクに対するモデルの精度を向上させるための大きな利点を提供しますが、その限界や、より複雑でない要件に対するプロンプトチューニングの潜在的な効果を考慮することが重要です。
StratosがTatsuと提携し、分散型アイデンティティ検証を強化 cover
6ヶ月前

StratosがTatsuと提携し、分散型アイデンティティ検証を強化

ブロックチェーンとAIの分野における重要な進展として、StratosはBittensorネットワークおよびTAOエコシステム内で運営される先駆的な分散型AI暗号プロジェクトであるTatsuとの戦略的パートナーシップを発表しました。Tatsuは、GitHubの活動や暗号通貨の残高などの高度なメトリクスを活用してユニークな人間スコアを作成し、分散型アイデンティティ検証において顕著な進展を遂げています。この革新的なアプローチは、検証プロセスを強化し、分散型の環境でより信頼性が高く効率的にします。Tatsu Identity 2.0の発売と新しいドキュメント理解サブネットの登場を控え、Tatsuは分散型AIの能力を再定義する準備が整っています。 このパートナーシップでは、TatsuがStratosの分散型ストレージソリューションを統合し、データ管理とセキュリティプロトコルを大幅に強化します。このコラボレーションは単なる技術の統合ではなく、分散型空間で可能なことの限界を押し広げることを目的とした専門知識の融合です。Stratosの堅牢なインフラを活用することで、Tatsuはその提供を強化し、アイデンティティ検証プロセスが安全かつ効率的であることを保証できます。この相乗効果は、TAOエコシステム内での革新と成長を促進し、Tatsuの先進技術の新しいアプリケーションへの扉を開くことが期待されています。 両社がこの旅を共に始める中、ブロックチェーンコミュニティへの影響は大きいです。分散型ストレージと最先端のAIソリューションの統合は、さまざまな分野でのアイデンティティ検証の方法に変革をもたらす可能性があります。このパートナーシップは、分散型技術とAIを組み合わせて、より安全で効率的かつ革新的なソリューションを創出する可能性を示しており、ブロックチェーン空間における将来のコラボレーションの前例を設定しています。
Google、Imagen 3を発表:AI画像生成の新時代 cover
6ヶ月前

Google、Imagen 3を発表:AI画像生成の新時代

Googleは、2024年のGoogle I/Oでの最初の発表から5か月後に、最新のテキストから画像へのAIモデルであるImagen 3を正式に発表しました。この新しいバージョンは、前のモデルと比較して、詳細が向上し、照明が改善され、視覚的アーティファクトが少なくなった画像品質の向上を約束します。Imagen 3は、自然言語のプロンプトをより正確に解釈するように設計されており、ユーザーは複雑なプロンプトエンジニアリングを必要とせずに特定の画像を生成できます。ハイパーリアリスティックな写真から幻想的なイラストまで、さまざまなスタイルを生成でき、画像内のテキストも明確にレンダリングできるため、カスタムグリーティングカードやプロモーション資料などの革新的なアプリケーションへの道を開きます。 安全性と責任ある使用は、Imagen 3の開発の最前線にあります。Google DeepMindは、有害または不適切なコンテンツの生成リスクを最小限に抑えるために、厳格なデータフィルタリングとラベリング技術を実施しています。生成AI技術がさまざまな業界にますます統合される中で、この倫理基準へのコミットメントは重要です。Imagen 3を試してみたいユーザーは、自然言語のプロンプトを入力することでGoogleのGeminiチャットボットを通じて利用でき、モデルが彼らの説明に基づいて詳細な画像を作成します。 進歩がある一方で、Imagen 3には一部の専門家の使いやすさに影響を与える制限があります。現在、四角いアスペクト比のみをサポートしており、風景やポートレート形式を必要とするプロジェクトには制約があります。さらに、インペインティングやアウトペインティングなどの編集機能が欠如しており、ユーザーは画像に芸術的なフィルターやスタイルを適用することができません。Midjourney、DALL-E 3、Fluxなどの競合他社と比較すると、Imagen 3は画像品質と自然言語処理において優れていますが、ユーザーのコントロールやカスタマイズオプションにおいては劣っています。全体として、Imagen 3は高品質の画像を生成するための強力なツールですが、その制限は創造的プロセスにおいてより柔軟性を求めるユーザーを遠ざける可能性があります。
レンダーネットワークが『ユニフィケーション』でデジタルコンテンツ制作を革命化 cover
6ヶ月前

レンダーネットワークが『ユニフィケーション』でデジタルコンテンツ制作を革命化

最近、Xで開催されたRender Foundation Spacesのディスカッションで、OTOYのCEOでありレンダーネットワークの創設者であるジュール・ウルバッハが、スタートレック30周年を祝う短編映画『765874ユニフィケーション』の制作中に促進された画期的な成果についての洞察を提供しました。ウルバッハは、レンダーネットワークがデジタルコンテンツ制作を革命化し、クリエイターが映画、アート、ストーリーテリングの新しいフロンティアを探求できるようにしていることを強調しました。この映画の制作は、レンダーネットワークが高品質なコンテンツ制作を民主化する可能性を示し、巨額の予算を必要とせずに印象的な視覚効果を実現できることを証明しました。 会話のハイライトの一つは、従来の映画制作プロセスを強化するための機械学習(ML)の革新的な使用でした。ウルバッハは、OTOYがデジタルダブルや顔の置き換えを利用してきた長い歴史を持っている一方で、技術の進歩により労働時間を大幅に削減できたことを指摘しました。AIの統合により、俳優の顔のモデリングが簡素化され、煩わしい顔のマーカーが不要になりました。これにより、制作プロセスが迅速化され、アーティストが技術的な課題ではなくストーリーテリングにもっと集中できるようになり、AIとGPUレンダリングが創造的な風景をどのように変革できるかを示しました。 今後、レンダーネットワークは新しいツールや統合をリリースする予定で、特にブラックフライデーが近づいています。計画には、3D制作ワークフローへのAIツールの統合や、ホログラフィックレンダリングのサポート拡大が含まれています。ウルバッハのビジョンは明確です:クリエイターが魅力的な物語を語るために必要なリソースを提供することです。『ユニフィケーション』の成功は、レンダーネットワークの革新精神の証であり、未来のクリエイターがデジタルコンテンツ制作における可能性の限界を押し広げる道を開いています。
AIラボがTheta EdgeCloudと提携し、AI教育を強化 cover
6ヶ月前

AIラボがTheta EdgeCloudと提携し、AI教育を強化

AIラボは、韓国の主要なeラーニングプロバイダーであり、最近Theta EdgeCloudとの複数年契約を締結し、人工知能(AI)とデータ分析(DA)の教育提供を強化する重要なステップを踏み出しました。このパートナーシップにより、AIラボはTheta EdgeCloudの分散GPUリソースを活用できるようになり、高度なAI教育、モデルのトレーニング、生成AIアプリケーションを促進します。実践的な体験とインタラクティブなコンテンツに強く焦点を当てているAIラボは、AIとコーディングスキルを世界的に教える効果が認められている革新的なプラットフォームCodingXを通じて、高品質な教育を提供することを目指しています。 Theta EdgeCloudとの協力は、AIラボにいくつかの利点をもたらすと期待されています。オンデマンドのGPUリソースを利用することで、教育機関はカリキュラムの柔軟性を高め、教育プログラムへのAIのシームレスな統合を可能にします。さらに、このパートナーシップは、Thetaの分散インフラストラクチャを通じて運営コストを削減し、サービスのコスト効率の良いスケーリングを可能にします。最も重要なのは、AI駆動の学習方法論の統合が、各学生の独自のニーズに合わせたパーソナライズされた学習体験を促進し、全体的なパフォーマンスを向上させることです。 Theta EdgeCloudは、最近、ソウル大学や北京大学などの著名な機関と提携し、顧客基盤を急速に拡大しています。この成長は、教育分野におけるスケーラブルでコスト効率の良い技術ソリューションの需要が高まっていることを示しています。AIラボのCEOであるジョン・チョイは、このパートナーシップに自信を表明し、韓国の大学の間でのThetaの強い評判と、今後数年間でAIラボの運営を大幅に拡大する可能性を強調しました。この協力は、AI駆動の未来における技術スキルの需要の高まりに応えるものであり、進化する教育環境における重要なプレーヤーとしてAIラボを位置づけています。
抽出型質問応答のためのQ-LoRAを用いたLlama 3.2 11Bのファインチューニング cover
6ヶ月前

抽出型質問応答のためのQ-LoRAを用いたLlama 3.2 11Bのファインチューニング

大規模言語モデル(LLM)は、自然言語処理において不可欠なツールとなり、さまざまなタスクを処理する能力を持っています。しかし、広範なトレーニングのため、特定のアプリケーションではさらなる適応が必要です。Q-LoRAのようなファインチューニング技術を使用することで、研究者はLlama 3.2 11Bのような事前学習モデルを特定のタスク、例えば抽出型質問応答に合わせて調整できます。本記事では、SQuAD v2データセットを使用してQ-LoRAを用いたLlama 3.2 11Bのファインチューニングプロセスを概説し、この方法によって達成されたパフォーマンスの向上を示します。 LoRA(Low-Rank Adaptation)は、元のパラメータを変更することなく、既存のモデルに新しい重みを導入する技術です。特定の層の出力を調整するアダプタ重みを追加することで、LoRAはモデルが事前学習した知識を保持しつつ、特定のタスクに合わせた新しい能力を獲得することを可能にします。この実験では、抽出型質問応答のためにLlama 3.2 11Bのファインチューニングに焦点を当て、ユーザーのクエリに直接応答する正確なテキストセグメントを抽出することを目指しています。実験は、Google Colabプラットフォーム上でA100 GPUを利用し、Hugging Face Transformersライブラリを使用して実施されました。 ファインチューニングプロセスの結果は有望で、検証セットにおけるモデルのパフォーマンスが大幅に向上しました。BERTスコアは0.6469から0.7505に改善され、正確な一致スコアは0.116から0.418に上昇しました。これらの改善は、Q-LoRA技術が抽出型質問応答タスクに対してLlama 3.2 11Bモデルを効果的に適応させることを示しています。本記事は、他のモデルやタスクに同様の方法を適用しようとする研究者のためのガイドとして機能し、自然言語処理の分野におけるファインチューニングの可能性を強調しています。
io.netがOpenLedgerと提携し、AIモデル開発を強化 cover
6ヶ月前

io.netがOpenLedgerと提携し、AIモデル開発を強化

今週、分散型のGPUリソースプラットフォームio.netは、人工知能(AI)向けに特別に設計されたデータブロックチェーンOpenLedgerとの戦略的パートナーシップを発表しました。このコラボレーションにより、OpenLedgerはio.netのグローバルなGPUコンピュートリソースを活用できるようになり、AIモデルの洗練とトレーニング能力が向上します。GPUのインターネットとして知られるio.netは、分散型GPUリソースの強力なネットワークを提供し、OpenLedgerがAIモデルの開発を加速し、開発者がより効率的なAIベースの分散型アプリケーション(DApps)を作成できるようにします。io.netのビジネス開発副社長であるタウシフ・アフマドによれば、このパートナーシップはOpenLedgerにAIモデルをスケールアップするための信頼できるインフラを提供し、新しいユースケースを解放し、分散型AI分野での革新的なプロバイダーとしての地位を強化します。 GPUリソースを提供するだけでなく、io.netのインフラはAIモデルの推論とホスティングもサポートし、最適なパフォーマンスとスケーラビリティを確保します。このパートナーシップは、信頼性のあるデータセットの提供者としてのOpenLedgerの評判を高め、ブロックチェーンとAIの交差点での革新を促進することが期待されています。コラボレーションは、安全かつ効率的に高品質のデータを作成し、革新とパフォーマンスを推進することを目指しています。OpenLedgerのチームメンバーは、io.netのGPUインフラを活用することで、ユーザーがAIモデルをより効率的に微調整できるようになり、最終的には信頼性が高く説明可能なAIモデルの開発につながると強調しました。 OpenLedgerがio.netをGPUリソースプロバイダーとして選んだ大きな要因は、提供されるコスト効率の良いスケーラブルなコンピュートソリューションです。このパートナーシップにより、OpenLedgerは中央集権的なクラウドプロバイダーに関連する高コストの制約なしにサービスを拡大できるようになります。より大きなデータセットを処理し、前例のない効率でAIモデルを開発することで、OpenLedgerは分散型AI革新の限界を押し広げることを目指しています。最終的に、このパートナーシップは、オープンで協力的なデータ環境を促進し、ブロックチェーンを活用したAIソリューションの採用を促進するというOpenLedgerの使命に沿ったものです。
StratosがCortensorと提携し、分散型AIインフラを強化 cover
6ヶ月前

StratosがCortensorと提携し、分散型AIインフラを強化

分散型AIの風景における重要な発展として、Stratosは分散型AI推論ネットワークのリーダーであるCortensorとの提携を発表しました。このコラボレーションは、Stratosの堅牢な分散型ストレージおよびストリーミングソリューションをCortensorの革新的なAIエコシステムに統合することで、分散型AIインフラを強化することを目的としています。この提携により、公共およびプライベートなAIワークロードがシームレスかつ信頼性高く動作できるように、セキュアでスケーラブルなデータストレージが提供され、全体的なネットワークパフォーマンスが向上します。 この提携の重要な特徴の一つは、リアルタイム推論ストリーミング機能の導入です。Stratosの高度なビデオストリーミングAPIにより、Cortensorは瞬時にAI推論出力を提供でき、動的なアプリケーションやユーザー主導のタスクを促進します。この改善により、AIワークロードのパフォーマンスが最適化され、Stratosの高スループットインフラがノード間の通信を改善し、高需要環境でも効率的なデータフローが確保されます。これは、高度なAIツールをよりアクセスしやすく、コスト効果の高いものにするための重要なステップです。 両社は、Cortensorの推論の証明(PoI)および有用な作業の証明(PoUW)システムがタスクを検証し、有意義な作業に対して貢献者を報酬するという分散型AIの未来に対するビジョンを共有しています。Web3およびAIソリューションをサポートする分散型インフラを持つStratosは、900以上のアクティブなグローバルストレージノードと21PBの容量を誇っています。この提携は、彼らの革新へのコミットメントを示すだけでなく、企業、開発者、コミュニティ主導のマイナーに新たな可能性を開くことを目指し、最終的にはより包括的でスケーラブルなAIエコシステムを構築します。分散型AIソリューションの限界を押し広げ続ける彼らのさらなる更新にご期待ください。
最新のDePINニュースとアップデートにサインアップしてください