最新のDePIN AI ニュース
AIプロジェクトを見る
4ヶ月前
Google、Imagen 3を発表:AI画像生成の新時代
Googleは、2024年のGoogle I/Oでの最初の発表から5か月後に、最新のテキストから画像へのAIモデルであるImagen 3を正式に発表しました。この新しいバージョンは、前のモデルと比較して、詳細が向上し、照明が改善され、視覚的アーティファクトが少なくなった画像品質の向上を約束します。Imagen 3は、自然言語のプロンプトをより正確に解釈するように設計されており、ユーザーは複雑なプロンプトエンジニアリングを必要とせずに特定の画像を生成できます。ハイパーリアリスティックな写真から幻想的なイラストまで、さまざまなスタイルを生成でき、画像内のテキストも明確にレンダリングできるため、カスタムグリーティングカードやプロモーション資料などの革新的なアプリケーションへの道を開きます。
安全性と責任ある使用は、Imagen 3の開発の最前線にあります。Google DeepMindは、有害または不適切なコンテンツの生成リスクを最小限に抑えるために、厳格なデータフィルタリングとラベリング技術を実施しています。生成AI技術がさまざまな業界にますます統合される中で、この倫理基準へのコミットメントは重要です。Imagen 3を試してみたいユーザーは、自然言語のプロンプトを入力することでGoogleのGeminiチャットボットを通じて利用でき、モデルが彼らの説明に基づいて詳細な画像を作成します。
進歩がある一方で、Imagen 3には一部の専門家の使いやすさに影響を与える制限があります。現在、四角いアスペクト比のみをサポートしており、風景やポートレート形式を必要とするプロジェクトには制約があります。さらに、インペインティングやアウトペインティングなどの編集機能が欠如しており、ユーザーは画像に芸術的なフィルターやスタイルを適用することができません。Midjourney、DALL-E 3、Fluxなどの競合他社と比較すると、Imagen 3は画像品質と自然言語処理において優れていますが、ユーザーのコントロールやカスタマイズオプションにおいては劣っています。全体として、Imagen 3は高品質の画像を生成するための強力なツールですが、その制限は創造的プロセスにおいてより柔軟性を求めるユーザーを遠ざける可能性があります。

4ヶ月前
レンダーネットワークが『ユニフィケーション』でデジタルコンテンツ制作を革命化
最近、Xで開催されたRender Foundation Spacesのディスカッションで、OTOYのCEOでありレンダーネットワークの創設者であるジュール・ウルバッハが、スタートレック30周年を祝う短編映画『765874ユニフィケーション』の制作中に促進された画期的な成果についての洞察を提供しました。ウルバッハは、レンダーネットワークがデジタルコンテンツ制作を革命化し、クリエイターが映画、アート、ストーリーテリングの新しいフロンティアを探求できるようにしていることを強調しました。この映画の制作は、レンダーネットワークが高品質なコンテンツ制作を民主化する可能性を示し、巨額の予算を必要とせずに印象的な視覚効果を実現できることを証明しました。
会話のハイライトの一つは、従来の映画制作プロセスを強化するための機械学習(ML)の革新的な使用でした。ウルバッハは、OTOYがデジタルダブルや顔の置き換えを利用してきた長い歴史を持っている一方で、技術の進歩により労働時間を大幅に削減できたことを指摘しました。AIの統合により、俳優の顔のモデリングが簡素化され、煩わしい顔のマーカーが不要になりました。これにより、制作プロセスが迅速化され、アーティストが技術的な課題ではなくストーリーテリングにもっと集中できるようになり、AIとGPUレンダリングが創造的な風景をどのように変革できるかを示しました。
今後、レンダーネットワークは新しいツールや統合をリリースする予定で、特にブラックフライデーが近づいています。計画には、3D制作ワークフローへのAIツールの統合や、ホログラフィックレンダリングのサポート拡大が含まれています。ウルバッハのビジョンは明確です:クリエイターが魅力的な物語を語るために必要なリソースを提供することです。『ユニフィケーション』の成功は、レンダーネットワークの革新精神の証であり、未来のクリエイターがデジタルコンテンツ制作における可能性の限界を押し広げる道を開いています。

4ヶ月前
AIラボがTheta EdgeCloudと提携し、AI教育を強化
AIラボは、韓国の主要なeラーニングプロバイダーであり、最近Theta EdgeCloudとの複数年契約を締結し、人工知能(AI)とデータ分析(DA)の教育提供を強化する重要なステップを踏み出しました。このパートナーシップにより、AIラボはTheta EdgeCloudの分散GPUリソースを活用できるようになり、高度なAI教育、モデルのトレーニング、生成AIアプリケーションを促進します。実践的な体験とインタラクティブなコンテンツに強く焦点を当てているAIラボは、AIとコーディングスキルを世界的に教える効果が認められている革新的なプラットフォームCodingXを通じて、高品質な教育を提供することを目指しています。
Theta EdgeCloudとの協力は、AIラボにいくつかの利点をもたらすと期待されています。オンデマンドのGPUリソースを利用することで、教育機関はカリキュラムの柔軟性を高め、教育プログラムへのAIのシームレスな統合を可能にします。さらに、このパートナーシップは、Thetaの分散インフラストラクチャを通じて運営コストを削減し、サービスのコスト効率の良いスケーリングを可能にします。最も重要なのは、AI駆動の学習方法論の統合が、各学生の独自のニーズに合わせたパーソナライズされた学習体験を促進し、全体的なパフォーマンスを向上させることです。
Theta EdgeCloudは、最近、ソウル大学や北京大学などの著名な機関と提携し、顧客基盤を急速に拡大しています。この成長は、教育分野におけるスケーラブルでコスト効率の良い技術ソリューションの需要が高まっていることを示しています。AIラボのCEOであるジョン・チョイは、このパートナーシップに自信を表明し、韓国の大学の間でのThetaの強い評判と、今後数年間でAIラボの運営を大幅に拡大する可能性を強調しました。この協力は、AI駆動の未来における技術スキルの需要の高まりに応えるものであり、進化する教育環境における重要なプレーヤーとしてAIラボを位置づけています。

4ヶ月前
抽出型質問応答のためのQ-LoRAを用いたLlama 3.2 11Bのファインチューニング
大規模言語モデル(LLM)は、自然言語処理において不可欠なツールとなり、さまざまなタスクを処理する能力を持っています。しかし、広範なトレーニングのため、特定のアプリケーションではさらなる適応が必要です。Q-LoRAのようなファインチューニング技術を使用することで、研究者はLlama 3.2 11Bのような事前学習モデルを特定のタスク、例えば抽出型質問応答に合わせて調整できます。本記事では、SQuAD v2データセットを使用してQ-LoRAを用いたLlama 3.2 11Bのファインチューニングプロセスを概説し、この方法によって達成されたパフォーマンスの向上を示します。
LoRA(Low-Rank Adaptation)は、元のパラメータを変更することなく、既存のモデルに新しい重みを導入する技術です。特定の層の出力を調整するアダプタ重みを追加することで、LoRAはモデルが事前学習した知識を保持しつつ、特定のタスクに合わせた新しい能力を獲得することを可能にします。この実験では、抽出型質問応答のためにLlama 3.2 11Bのファインチューニングに焦点を当て、ユーザーのクエリに直接応答する正確なテキストセグメントを抽出することを目指しています。実験は、Google Colabプラットフォーム上でA100 GPUを利用し、Hugging Face Transformersライブラリを使用して実施されました。
ファインチューニングプロセスの結果は有望で、検証セットにおけるモデルのパフォーマンスが大幅に向上しました。BERTスコアは0.6469から0.7505に改善され、正確な一致スコアは0.116から0.418に上昇しました。これらの改善は、Q-LoRA技術が抽出型質問応答タスクに対してLlama 3.2 11Bモデルを効果的に適応させることを示しています。本記事は、他のモデルやタスクに同様の方法を適用しようとする研究者のためのガイドとして機能し、自然言語処理の分野におけるファインチューニングの可能性を強調しています。

4ヶ月前
io.netがOpenLedgerと提携し、AIモデル開発を強化
今週、分散型のGPUリソースプラットフォームio.netは、人工知能(AI)向けに特別に設計されたデータブロックチェーンOpenLedgerとの戦略的パートナーシップを発表しました。このコラボレーションにより、OpenLedgerはio.netのグローバルなGPUコンピュートリソースを活用できるようになり、AIモデルの洗練とトレーニング能力が向上します。GPUのインターネットとして知られるio.netは、分散型GPUリソースの強力なネットワークを提供し、OpenLedgerがAIモデルの開発を加速し、開発者がより効率的なAIベースの分散型アプリケーション(DApps)を作成できるようにします。io.netのビジネス開発副社長であるタウシフ・アフマドによれば、このパートナーシップはOpenLedgerにAIモデルをスケールアップするための信頼できるインフラを提供し、新しいユースケースを解放し、分散型AI分野での革新的なプロバイダーとしての地位を強化します。
GPUリソースを提供するだけでなく、io.netのインフラはAIモデルの推論とホスティングもサポートし、最適なパフォーマンスとスケーラビリティを確保します。このパートナーシップは、信頼性のあるデータセットの提供者としてのOpenLedgerの評判を高め、ブロックチェーンとAIの交差点での革新を促進することが期待されています。コラボレーションは、安全かつ効率的に高品質のデータを作成し、革新とパフォーマンスを推進することを目指しています。OpenLedgerのチームメンバーは、io.netのGPUインフラを活用することで、ユーザーがAIモデルをより効率的に微調整できるようになり、最終的には信頼性が高く説明可能なAIモデルの開発につながると強調しました。
OpenLedgerがio.netをGPUリソースプロバイダーとして選んだ大きな要因は、提供されるコスト効率の良いスケーラブルなコンピュートソリューションです。このパートナーシップにより、OpenLedgerは中央集権的なクラウドプロバイダーに関連する高コストの制約なしにサービスを拡大できるようになります。より大きなデータセットを処理し、前例のない効率でAIモデルを開発することで、OpenLedgerは分散型AI革新の限界を押し広げることを目指しています。最終的に、このパートナーシップは、オープンで協力的なデータ環境を促進し、ブロックチェーンを活用したAIソリューションの採用を促進するというOpenLedgerの使命に沿ったものです。

4ヶ月前
StratosがCortensorと提携し、分散型AIインフラを強化
分散型AIの風景における重要な発展として、Stratosは分散型AI推論ネットワークのリーダーであるCortensorとの提携を発表しました。このコラボレーションは、Stratosの堅牢な分散型ストレージおよびストリーミングソリューションをCortensorの革新的なAIエコシステムに統合することで、分散型AIインフラを強化することを目的としています。この提携により、公共およびプライベートなAIワークロードがシームレスかつ信頼性高く動作できるように、セキュアでスケーラブルなデータストレージが提供され、全体的なネットワークパフォーマンスが向上します。
この提携の重要な特徴の一つは、リアルタイム推論ストリーミング機能の導入です。Stratosの高度なビデオストリーミングAPIにより、Cortensorは瞬時にAI推論出力を提供でき、動的なアプリケーションやユーザー主導のタスクを促進します。この改善により、AIワークロードのパフォーマンスが最適化され、Stratosの高スループットインフラがノード間の通信を改善し、高需要環境でも効率的なデータフローが確保されます。これは、高度なAIツールをよりアクセスしやすく、コスト効果の高いものにするための重要なステップです。
両社は、Cortensorの推論の証明(PoI)および有用な作業の証明(PoUW)システムがタスクを検証し、有意義な作業に対して貢献者を報酬するという分散型AIの未来に対するビジョンを共有しています。Web3およびAIソリューションをサポートする分散型インフラを持つStratosは、900以上のアクティブなグローバルストレージノードと21PBの容量を誇っています。この提携は、彼らの革新へのコミットメントを示すだけでなく、企業、開発者、コミュニティ主導のマイナーに新たな可能性を開くことを目指し、最終的にはより包括的でスケーラブルなAIエコシステムを構築します。分散型AIソリューションの限界を押し広げ続ける彼らのさらなる更新にご期待ください。

4ヶ月前
情報検索強化生成におけるコンテキストリコールの向上
情報検索強化生成(RAG)は、大規模言語モデル(LLM)を専門的なビジネスアプリケーションに統合するための重要な手法として浮上しており、モデルの応答に独自のデータを注入することを可能にします。概念実証(POC)フェーズでの効果的な実施にもかかわらず、開発者はRAGを本番環境に移行する際に、しばしば大幅な精度の低下に直面します。この問題は特に、与えられたクエリに対して最も関連性の高いコンテキストを正確に取得することを目的とする検索フェーズで顕著であり、このメトリックはコンテキストリコールとして知られています。本記事では、埋め込みモデルをカスタマイズおよび微調整することによってコンテキストリコールを向上させるための戦略を掘り下げ、RAGの実際のアプリケーションにおけるパフォーマンスを改善する方法について説明します。
RAGは主に2つのステップで動作します:検索と生成。検索フェーズでは、モデルがテキストをベクトルに変換し、インデックスを作成し、これらのベクトルを取得して再ランク付けして、トップマッチを特定します。しかし、このフェーズでの失敗は、関連するコンテキストの見逃しにつながり、コンテキストリコールの低下と生成出力の精度の低下を引き起こす可能性があります。効果的な解決策の1つは、テキストデータ間の関係を理解するように設計された埋め込みモデルを調整し、使用されるデータセットに特有の埋め込みを生成することです。この微調整により、モデルは類似の文に対して類似のベクトルを生成できるようになり、クエリに対して非常に関連性の高いコンテキストを取得する能力が向上します。
コンテキストリコールを改善するためには、モデルが遭遇するクエリの種類を反映した特注のデータセットを準備することが不可欠です。これには、知識ベースから多様な質問を抽出し、変動性のためにそれらを言い換え、関連性に基づいて整理することが含まれます。さらに、評価データセットを構築することで、モデルのパフォーマンスを現実的な設定で評価するのに役立ちます。情報検索評価者を使用することで、開発者はRecall@kやPrecision@kなどのメトリックを測定し、検索の精度を評価できます。最終的に、埋め込みモデルの微調整はコンテキストリコールの大幅な改善につながり、RAGが本番環境で正確かつ信頼できるものであり続けることを保証します。

4ヶ月前
IoT技術による農業の革新
農業におけるIoT技術の統合は、この分野を変革し、農家が生産性と持続可能性を向上させるための情報に基づいたデータ駆動型の意思決定を行えるようにしています。世界のスマート農業市場は、2026年までに200億ドルに達する見込みで、農場におけるIoTソリューションの採用が増加しています。これらの技術は、作物や家畜の管理のさまざまな側面を最適化し、農家がコストを削減しながら収穫量と環境管理を改善するのに役立ちます。IoTデバイスが普及するにつれて、資源管理の自動化や天候や土壌条件などの重要な要因に関するリアルタイムデータの収集など、重要な利点が提供されます。
気象ステーションや土壌センサーなどのIoTデバイスは、スマート農業において重要な役割を果たします。気象ステーションは、温度、湿度、降水量に関する重要なデータを提供し、農家が灌漑や植え付けのスケジュールをタイムリーに調整できるようにします。土壌センサーは、湿度レベルに関するリアルタイムの洞察を提供し、水の使用と肥料戦略を最適化します。さらに、家畜監視用の首輪は、動物の健康と位置の積極的な管理を保証します。リアルタイムデータに基づいて灌漑や資源の分配を自動化することで、農家は資源を節約し、作物の健康を向上させ、最終的には収益性を高めることができます。
Chirpのプラットフォームは、これらのIoTデバイスを単一のダッシュボードから管理される統合システムに組み込むことで、これらのデバイスの効果を高めます。ブロックチェーン技術の導入は、データ管理をさらに強化し、IoTデバイスによって生成される膨大な情報の安全で改ざん不可能な保存と追跡を保証します。ChirpのBlackbirdマイナーは、これらのデバイスに長距離接続を提供し、個別のインターネット接続なしで広範囲にわたる信頼性の高いデータ伝送を可能にします。このIoT技術のシームレスな統合により、Chirpは農家にとって重要なパートナーとして位置づけられ、彼らが課題に取り組み、進化する農業の風景における新しい機会を活用できるようにします。

4ヶ月前
VentureMind AIがTheta EdgeCloudと提携し、AIとロボティクスの能力を強化
AIとブロックチェーンの交差点におけるエキサイティングな展開として、VentureMind AIはTheta EdgeCloudとの提携を発表しました。このコラボレーションは、Thetaの分散型で低遅延のコンピューティングおよびストリーミングリソースを活用し、VentureMind AIの能力を強化することを目的としています。EdgeCloudを統合することで、VentureMind AIはAIツールをスケールアップし、ビデオレンダリングを最適化し、リアルタイムのロボティクス制御を提供できるようになり、建設やセキュリティなどの分野でのサービス提供を大幅に改善します。この提携は、AIの革新と分散型金融、先進的なロボティクスを融合させる包括的なエコシステムの構築に向けた重要なステップを示しています。
VentureMind AIは、ユーザーがAIツールをNFTとして作成、鋳造、取引できる先駆的なプラットフォームであり、独自の所有権と収入の可能性を提供します。このプラットフォームには、ユーザーがトークン化されたコミュニティを立ち上げ、市場形成活動を管理できるカスタム自律エージェントビルダーも備わっています。2023年6月の設立以来、EdgeCloudは、ソウル国立大学やGenAI search Linerなどの企業がそのインフラを利用してAIの研究と応用を進める中、学術および企業の両方で注目を集めています。
Theta EdgeCloudの統合により、VentureMind AIはAI、ロボティクス、Web3の分野での可能性を再定義する準備が整いました。この提携は、AIの革新のためのスケーラブルなコンピューティング、信頼性のあるロボティクス制御、コスト効率の高いビデオ処理、NFTおよび自律ツールのための強化された統合を促進します。Jermaine Anugwomによって設立されたVentureMind AIは、専門的なAIツールのコレクションから、ブロックチェーン技術とトークノミクスを統合した堅牢なプラットフォームへと急速に進化し、新興のWeb3の風景におけるリーダーとしての地位を確立しています。

4ヶ月前
Theta、ソウル国立大学と提携しAI研究を強化
Thetaは、韓国の主要な学術機関であるソウル国立大学(SNU)との重要な提携を発表し、EdgeCloudプラットフォームを通じてAI研究を強化します。このコラボレーションは、環境AIとIoTシステムの専門家であるヒョンシン・キム准教授が指導するSNUのAIoTラボに特に利益をもたらします。提携の目的は、Thetaの高度なハイブリッドクラウドGPUリソースを活用して、AIを活用したヘルスケアの革新やリアルタイムデータ処理などの分野での研究を加速することです。1946年に設立されたSNUは、さまざまな分野での卓越性が認められ、アジアのトップ大学の一つとして常に評価されています。
6月にEdgeCloudが立ち上げられて以来、Thetaは米国および韓国の学術界で注目を集めており、オレゴン大学やKAISTなどのいくつかの著名な機関と提携しています。SNUのAIoTラボはすでにこの分野で顕著な貢献をしており、キム教授が指導する取り組みは多くの賞や高インパクトの研究助成金を受賞しています。最近の成果には、大規模な会議やコンペティションでの表彰が含まれており、ラボのAIおよびIoT技術の進展へのコミットメントを示しています。Thetaのインフラの統合は、データプライバシーとリアルタイムの健康情報を優先する適応モデルの開発におけるラボの能力をさらに向上させると期待されています。
キム教授は、このコラボレーションに対する熱意を表明し、Thetaの分散型AIインフラがGPUの風景を再定義し、環境AIおよびIoTアプリケーションにおける画期的な進展を可能にすると強調しました。この提携は、Thetaが世界クラスのAI研究を支援するというコミットメントを強化するだけでなく、アジアおよび北米のトップレベルの機関をさらに取り込むという野望を持つ企業としての地位を確立します。Thetaがその影響力を拡大し続ける中、SNUとのコラボレーションは、AIおよびIoT分野での革新的な実世界アプリケーションを促進するための重要なステップを示しています。
最新のDePINニュースとアップデートにサインアップしてください