En Son DePIN Yapay Zeka Haberleri

Yapay Zeka Projelerini Görüntüle
CreatorBid, Merkezi Olmayan GPU Ağı ile AI Gelişimini Artırmak İçin io.net ile Ortaklık Kurdu cover
6 ay önce

CreatorBid, Merkezi Olmayan GPU Ağı ile AI Gelişimini Artırmak İçin io.net ile Ortaklık Kurdu

Yapay Zeka Yaratıcı Ekonomisi için önemli bir gelişme olarak, io.net, yaratıcılar ve markalar için AI destekli araçlar konusunda uzmanlaşmış bir platform olan CreatorBid ile stratejik bir ortaklık kurduğunu duyurdu. Bu iş birliği, CreatorBid'in io.net'in merkezi olmayan GPU ağını kullanmasına olanak tanıyacak, görüntü ve video modellerinin ölçeklenebilirliğini ve verimliliğini artıracaktır. Bu merkezi olmayan altyapıyı kullanarak, CreatorBid kaynak kullanımını optimize etmeyi ve maliyetleri en aza indirmeyi hedefliyor, bu da AI teknolojisiyle uğraşan işletmeler için yüksek performanslı hesaplamayı daha erişilebilir hale getiriyor. io.net'te İş Geliştirme Başkan Yardımcısı olan Tausif Ahmed, bu ortaklığın avantajlarını vurgulayarak, CreatorBid'in gelişmiş AI çözümleri için merkezi olmayan GPU ağlarını kullanmasını sağladığını belirtti. CreatorBid'in CEO'su Phil Kothe, ölçeklenebilir GPU kaynaklarının AI Etkileyicilerini ve Ajanlarını güçlendirme potansiyelini vurgulayarak bu duyguyu yineledi. Bu ortaklık, içerik oluşturmayı devrim niteliğinde değiştirmeyi vaat ediyor, çünkü yaratıcıların izleyicilerle etkileşimde bulunmalarını ve çeşitli içerik formatlarını bağımsız olarak üretmelerini sağlıyor, dijital girişimcilikte yeni bir dönemin yolunu açıyor. CreatorBid, yaratıcıların içeriklerini paraya dönüştürmelerine ve AI Ajanları etrafında canlı topluluklar oluşturmalarına olanak tanıyan araçlar sağlayarak AI Yaratıcı Ekonomisinin ön saflarında yer alıyor. Bu özelleştirilebilir dijital kişilikler, etkileşimi ve etkileşimi teşvik ederek yaratıcılar ve hayranlar arasında ortak sahipliği teşvik ediyor. En son AI araçlarını blok zinciri teknolojisiyle entegre ederek, CreatorBid yaratıcı manzarayı yeniden tanımlıyor ve kendisini otonom bir Yaratıcı Ekonomiye geçişte önemli bir oyuncu olarak konumlandırıyor. io.net ile yapılan ortaklık, merkezi olmayan GPU ağlarının pratik uygulamalarını sergilemekle kalmıyor, aynı zamanda CreatorBid'in içerik oluşturma ve markalaşmada AI destekli bir gelecek için vizyonunu hızlandırıyor.
Merkeziyetsiz EdgeAI: Yapay Zekaya Erişimi Demokratikleştirmek cover
6 ay önce

Merkeziyetsiz EdgeAI: Yapay Zekaya Erişimi Demokratikleştirmek

Yapay zeka (YZ) alanı, merkeziyetsiz EdgeAI'nin ortaya çıkmasıyla önemli bir dönüşüm geçiriyor; bu, YZ teknolojilerine erişimi demokratikleştirmeyi amaçlıyor. Şu anda OpenAI, IBM, Amazon ve Google gibi birkaç büyük teknoloji şirketi, YZ altyapı katmanında hakimiyet kurarak daha küçük kuruluşlar için engeller yaratmakta ve dünya genelinde milyonlarca kullanıcı ve işletmenin erişimini sınırlamaktadır. Bu merkezi kontrol, maliyetleri artırmakla kalmaz, aynı zamanda yeniliği de kısıtlar. Network3 gibi girişimlerle örneklendirilen merkeziyetsiz EdgeAI, Merkeziyetsiz Fiziksel Altyapı (DePIN) ve EdgeAI'yi entegre ederek bu zorlukları ele almayı hedefliyor; bu sayede YZ sistemleri çeşitli cihazlarda çalışabilirken gizliliği ve topluluk katılımını da sağlıyor. EdgeAI'nin en önemli avantajlarından biri, teknoloji devlerine ait büyük veri merkezlerine olan bağımlılığı azaltma yeteneğidir. Geleneksel YZ modelleri, özellikle GPT-3 gibi büyük dil modelleri (LLM), eğitim için önemli kaynaklar gerektirir ve genellikle maliyetleri 500.000 ile 4,6 milyon dolar arasında değişir. Bu mali engel, Büyük Teknoloji'nin tekelini daha da pekiştirir. Buna karşılık, EdgeAI geliştiricilerin daha küçük cihazlarda, akıllı telefonlardan IoT cihazlarına kadar, modelleri eğitmesine ve dağıtmasına olanak tanır; bu da erişilebilirliği artırır ve yeniliği teşvik eder. Ancak, EdgeAI'nin tam potansiyeline ulaşabilmesi için cihazların etkili bir şekilde iletişim kurabilmesi ve kaynakları paylaşabilmesi gerekir; bu da hesaplama ve depolama sınırlamalarını aşmayı gerektirir. Network3'ün yenilikçi Merkeziyetsiz Federatif Öğrenme çerçevesi, işbirlikçi YZ eğitiminde önemli bir ilerlemeyi temsil ediyor. Birden fazla cihazın veya 'düğümün' kaynaklarını birleştirmesine izin vererek, bu çerçeve YZ sistemlerinin verimliliğini ve büyümesini artırıyor. Güçlü şifreleme yöntemlerinin, örneğin Anonim Sertifikasız İmza (CLSC) gibi, entegrasyonu veri paylaşımını güvenli hale getirirken gizliliği koruyor. Ayrıca, Reed-Solomon kodlamasının kullanımı veri doğruluğunu optimize ediyor. Sonuç olarak, Network3 ekosistemindeki Edge cihazları yerel analizler gerçekleştirebilir, bu da düşük gecikme ve gerçek zamanlı yanıtlar sağlar. Bu merkeziyetsiz yaklaşım, sadece merkezi tekelin etkisini azaltmakla kalmaz, aynı zamanda geliştiriciler ve kullanıcılar için yeni gelir kaynakları açar; nihayetinde YZ'yi herkes için daha erişilebilir ve faydalı hale getirir.
Llama 3.2'nin İnce Ayarı: Geliştirilmiş Model Performansı için Kapsamlı Bir Rehber cover
6 ay önce

Llama 3.2'nin İnce Ayarı: Geliştirilmiş Model Performansı için Kapsamlı Bir Rehber

Meta'nın Llama 3.2'yi yeni piyasaya sürmesi, büyük dil modellerinin (LLM) ince ayarını önemli ölçüde ilerletiyor ve makine öğrenimi mühendisleri ile veri bilimcilerin belirli görevler için model performansını artırmasını kolaylaştırıyor. Bu rehber, gerekli kurulum, veri seti oluşturma ve eğitim betiği yapılandırması da dahil olmak üzere ince ayar sürecini özetlemektedir. İnce ayar, Llama 3.2 gibi modellerin müşteri desteği gibi belirli alanlarda uzmanlaşmasını sağlar ve bu da genel amaçlı modellere kıyasla daha doğru ve ilgili yanıtlar alınmasına yol açar. Llama 3.2'nin ince ayarına başlamak için kullanıcıların önce ortamlarını kurmaları gerekir, özellikle Windows kullanıyorlarsa. Bu, bir Linux terminaline erişim sağlamak için Windows Alt Sistemi'ni (WSL) yüklemeyi, uygun NVIDIA sürücüleri ile GPU erişimini yapılandırmayı ve Python geliştirme bağımlılıkları gibi temel araçları yüklemeyi içerir. Ortam hazırlandıktan sonra, kullanıcılar ince ayar için özel bir veri seti oluşturabilirler. Örneğin, Llama 3.2'yi basit matematik sorularını yanıtlaması için eğitmek üzere bir veri seti oluşturulabilir; bu, hedefe yönelik ince ayarın basit bir örneğidir. Veri seti hazırlandıktan sonra, bir eğitim betiği ayarlamak için Unsloth kütüphanesini kullanmak bir sonraki adımdır; bu, ince ayar sürecini Low-Rank Adaptation (LoRA) ile basitleştirir. Bu, gerekli paketlerin yüklenmesini, modelin yüklenmesini ve eğitim sürecinin başlatılmasını içerir. Model ince ayarlandıktan sonra, performansını değerlendirmek için bir test seti oluşturmak ve modelin yanıtlarını beklenen yanıtlarla karşılaştırmak önemlidir. İnce ayar, belirli görevler için model doğruluğunu artırmada önemli avantajlar sunsa da, sınırlamalarını ve daha az karmaşık gereksinimler için istem ayarının potansiyel etkinliğini dikkate almak önemlidir.
Stratos, Merkeziyetsiz Kimlik Doğrulamasını Geliştirmek İçin Tatsu ile Ortaklık Kurdu cover
6 ay önce

Stratos, Merkeziyetsiz Kimlik Doğrulamasını Geliştirmek İçin Tatsu ile Ortaklık Kurdu

Blok zinciri ve yapay zeka sektörlerinde önemli bir gelişme olarak, Stratos, Bittensor ağı ve TAO ekosisteminde faaliyet gösteren öncü merkeziyetsiz yapay zeka kripto projesi Tatsu ile stratejik bir ortaklık kurduğunu duyurdu. Tatsu, GitHub etkinliği ve kripto para bakiyeleri gibi gelişmiş ölçümleri kullanarak benzersiz bir insan puanı oluşturma konusunda merkeziyetsiz kimlik doğrulamasında dikkate değer ilerlemeler kaydetti. Bu yenilikçi yaklaşım, doğrulama süreçlerini daha güvenilir ve verimli hale getirerek merkeziyetsiz ortamda iyileştirir. Tatsu Identity 2.0'ın ve yeni Belge Anlama alt ağının yaklaşan lansmanı ile Tatsu, merkeziyetsiz yapay zekanın yeteneklerini yeniden tanımlamaya hazırlanıyor. Ortaklık, Tatsu'nun veri yönetimi ve güvenlik protokollerini önemli ölçüde güçlendirecek olan Stratos'un merkeziyetsiz depolama çözümlerini entegre etmesini sağlayacak. Bu iş birliği, sadece teknolojilerin bir birleşimi değil, merkeziyetsiz alandaki olanakları zorlamayı amaçlayan bir uzmanlık birleşimidir. Stratos'un sağlam altyapısını kullanarak Tatsu, tekliflerini geliştirebilir ve kimlik doğrulama süreçlerinin hem güvenli hem de verimli olmasını sağlayabilir. Bu sinerjinin, TAO ekosisteminde yenilik ve büyümeyi teşvik etmesi bekleniyor ve Tatsu'nun ileri teknolojileri için yeni uygulama kapılarını açıyor. Her iki şirket bu yolculuğa birlikte çıkarken, blok zinciri topluluğu için sonuçlar önemli. Merkeziyetsiz depolama ile son teknoloji yapay zeka çözümlerinin entegrasyonu, kimlik doğrulamanın çeşitli sektörlerde nasıl gerçekleştirildiğinde dönüşümsel değişikliklere yol açabilir. Bu ortaklık, merkeziyetsiz teknolojilerin yapay zeka ile birleştirilmesinin daha güvenli, verimli ve yenilikçi çözümler yaratma potansiyelini örneklemekte ve blok zinciri alanındaki gelecekteki iş birlikleri için bir emsal oluşturmaktadır.
Google, Imagen 3'ü Tanıttı: Yapay Zeka Görüntü Üretiminde Yeni Bir Dönem cover
6 ay önce

Google, Imagen 3'ü Tanıttı: Yapay Zeka Görüntü Üretiminde Yeni Bir Dönem

Google, 2024 Google I/O etkinliğinde yaptığı ilk duyurudan beş ay sonra, en son metinden görüntüye yapay zeka modeli Imagen 3'ü resmi olarak tanıttı. Bu yeni versiyon, önceki modellerine kıyasla daha iyi detay, daha iyi aydınlatma ve daha az görsel artefakt ile geliştirilmiş görüntü kalitesi sunmayı vaat ediyor. Imagen 3, kullanıcıların karmaşık istem mühendisliği gerektirmeden belirli görüntüler üretmelerine olanak tanıyarak doğal dil istemlerini daha doğru bir şekilde yorumlamak üzere tasarlandı. Hiperrasyonel fotoğraflardan eğlenceli illüstrasyonlara kadar çeşitli stiller üretebilir ve hatta görüntüler içinde metni net bir şekilde gösterebilir, bu da özel tebrik kartları ve tanıtım materyalleri gibi yenilikçi uygulamalar için yol açar. Güvenlik ve sorumlu kullanım, Imagen 3'ün geliştirilmesinde ön plandadır. Google DeepMind, zararlı veya uygunsuz içerik üretme riskini en aza indirmek için titiz veri filtreleme ve etiketleme teknikleri uygulamıştır. Üretken yapay zeka teknolojisi çeşitli endüstrilere giderek daha fazla entegre oldukça, bu etik standartlara bağlılık kritik öneme sahiptir. Imagen 3'ü denemek isteyen kullanıcılar, doğal dil istemleri girerek modelin tanımları doğrultusunda detaylı görüntüler oluşturmasına olanak tanıyan Google’ın Gemini Sohbet Botu aracılığıyla bunu yapabilirler. Gelişmelerine rağmen, Imagen 3'ün bazı profesyoneller için kullanılabilirliğini etkileyebilecek sınırlamaları vardır. Şu anda yalnızca kare en-boy oranını desteklemektedir, bu da manzara veya portre formatları gerektiren projeleri kısıtlayabilir. Ayrıca, görüntüleri düzenleme özellikleri, örneğin inpainting veya outpainting gibi, yoktur ve kullanıcılar görüntülerine sanatsal filtreler veya stiller uygulayamazlar. Midjourney, DALL-E 3 ve Flux gibi rakiplerle karşılaştırıldığında, Imagen 3 görüntü kalitesi ve doğal dil işleme konusunda öne çıkarken, kullanıcı kontrolü ve özelleştirme seçeneklerinde geride kalmaktadır. Genel olarak, Imagen 3 yüksek kaliteli görüntüler üretmek için güçlü bir araç olmasına rağmen, sınırlamaları daha fazla esneklik arayan kullanıcıları caydırabilir.
Render Ağı, 'Birleşim' ile Dijital İçerik Üretimini Devrim Niteliğinde Yeniliyor cover
6 ay önce

Render Ağı, 'Birleşim' ile Dijital İçerik Üretimini Devrim Niteliğinde Yeniliyor

Render Foundation Spaces tarafından X'te düzenlenen son bir tartışmada, OTOY CEO'su ve Render Ağı'nın kurucusu Jules Urbach, Star Trek'in 30. yıl dönümünü kutlayan "765874 Birleşim" adlı kısa filmin üretimi sırasında işbirlikçi teknolojileri sayesinde elde edilen çığır açıcı başarılar hakkında bilgiler verdi. Urbach, Render Ağı'nın dijital içerik üretimini nasıl devrim niteliğinde yenilediğini, yaratıcıların film, sanat ve hikaye anlatımında yeni ufuklar keşfetmelerine olanak tanıdığını vurguladı. Filmin üretimi, Render Ağı'nın yüksek kaliteli içerik üretimini demokratikleştirme potansiyelini sergileyerek, büyük bütçelere ihtiyaç duymadan etkileyici görsel efektler elde edilmesini sağladı. Tartışmanın en önemli noktalarından biri, geleneksel film yapım süreçlerini geliştirmek için makine öğreniminin (ML) yenilikçi kullanımıydı. Urbach, OTOY'un dijital ikizler ve yüz değiştirme konusunda uzun bir geçmişe sahip olduğunu belirtirken, teknolojideki ilerlemelerin iş gücü saatlerini önemli ölçüde azaltmalarına olanak tanıdığını kaydetti. Yapay zeka entegrasyonu, oyuncuların yüzlerinin modellenmesini kolaylaştırarak, karmaşık yüz işaretlerine olan ihtiyacı ortadan kaldırdı. Bu, üretim sürecini hızlandırmakla kalmadı, aynı zamanda sanatçıların teknik zorluklar yerine hikaye anlatımına daha fazla odaklanmalarını sağladı ve yapay zeka ile GPU renderingin yaratıcı alanı nasıl dönüştürebileceğini gösterdi. Geleceğe bakıldığında, Render Ağı, Kara Cuma yaklaşırken yeni araçlar ve entegrasyonlar sunmaya hazırlanıyor. Planlar, yapay zeka araçlarını 3D yaratım iş akışlarına entegre etmek ve holografik renderleme desteğini genişletmek üzerine. Urbach'ın vizyonu net: yaratıcıların etkileyici hikayeler anlatmaları için ihtiyaç duydukları kaynakları sağlamak. "Birleşim"in başarısı, Render Ağı'nın yenilikçi ruhunun bir kanıtı olarak, gelecekteki yaratıcıların dijital içerik üretiminde mümkün olanın sınırlarını zorlamaları için bir yol açıyor.
AI Laboratuvarı, AI Eğitimi Geliştirmek İçin Theta EdgeCloud ile Ortaklık Kurdu cover
6 ay önce

AI Laboratuvarı, AI Eğitimi Geliştirmek İçin Theta EdgeCloud ile Ortaklık Kurdu

Güney Kore'nin önde gelen e-öğrenme sağlayıcısı AI Laboratuvarı, Yapay Zeka (AI) ve Veri Analizi (DA) eğitim sunumlarını geliştirmek için Theta EdgeCloud ile çok yıllık bir anlaşma imzaladı. Bu ortaklık, AI Laboratuvarı'nın Theta EdgeCloud'un dağıtılmış GPU kaynaklarından yararlanmasını sağlıyor ve bu da ileri düzey AI eğitimi, model eğitimi ve üretken AI uygulamalarını kolaylaştırıyor. Pratik deneyimlere ve etkileşimli içeriğe güçlü bir odaklanma ile AI Laboratuvarı, dünya genelinde AI ve kodlama becerilerini öğretme konusundaki etkinliği ile tanınan yenilikçi platformu CodingX aracılığıyla yüksek kaliteli eğitim sunmayı hedefliyor. Theta EdgeCloud ile işbirliğinin AI Laboratuvarı'na birçok avantaj sağlaması bekleniyor. Talep üzerine GPU kaynaklarını kullanarak, kurum müfredat esnekliğini artırabilir ve AI'nın eğitim programlarına sorunsuz bir şekilde entegre edilmesini sağlayabilir. Ayrıca, ortaklığın Theta'nın dağıtılmış altyapısı aracılığıyla operasyonel maliyetleri düşürmesi ve hizmetlerinin maliyet etkin bir şekilde ölçeklenmesini sağlaması bekleniyor. En önemlisi, AI destekli öğrenme metodolojilerinin entegrasyonu, her öğrencinin benzersiz ihtiyaçlarını karşılamak için özelleştirilmiş öğrenme deneyimlerini kolaylaştıracak ve böylece genel performansı artıracaktır. Theta EdgeCloud, Seul Ulusal Üniversitesi ve Pekin Üniversitesi gibi prestijli kurumlarla ortaklık kurarak müşteri tabanını hızla genişletiyor. Bu büyüme, eğitim sektöründe ölçeklenebilir ve maliyet etkin teknoloji çözümlerine olan artan talebi vurguluyor. AI Laboratuvarı CEO'su John Choi, ortaklığa olan güvenini dile getirerek, Theta'nın Güney Kore üniversiteleri arasındaki güçlü itibarını ve AI Laboratuvarı'nın operasyonlarını önümüzdeki yıllarda önemli ölçüde genişletme potansiyelini vurguladı. Bu işbirliği, AI destekli bir gelecekte teknoloji becerilerine olan artan talebi karşılamaya hazır ve AI Laboratuvarı'nı gelişen eğitim manzarasında önemli bir oyuncu olarak konumlandırıyor.
Soru-Cevaplama için Q-LoRA ile Llama 3.2 11B'nin İnce Ayarı cover
6 ay önce

Soru-Cevaplama için Q-LoRA ile Llama 3.2 11B'nin İnce Ayarı

Büyük Dil Modelleri (LLM'ler), doğal dil işleme alanında çeşitli görevleri yerine getirebilen temel araçlar haline gelmiştir. Ancak, geniş kapsamlı eğitimleri nedeniyle, belirli uygulamalarda daha fazla uyarlama olmadan mükemmel sonuçlar veremeyebilirler. Q-LoRA gibi ince ayar teknikleri, araştırmacıların Llama 3.2 11B gibi önceden eğitilmiş modelleri, ekstrektif soru-cevaplama gibi belirli görevler için özelleştirmelerine olanak tanır. Bu makale, Q-LoRA kullanarak Llama 3.2 11B'nin SQuAD v2 veri setinde ince ayar sürecini özetlemekte ve bu yöntemle elde edilen performans artışlarını sergilemektedir. LoRA, ya da Düşük Sıralı Adaptasyon, mevcut bir modele yeni ağırlıklar ekleyen bir tekniktir ve orijinal parametreleri değiştirmeden çalışır. Belirli katmanların çıktısını ayarlayan adaptör ağırlıkları ekleyerek, LoRA modellerin önceden eğitilmiş bilgilerini korurken belirli görevlere özel yeni yetenekler kazanmalarını sağlar. Bu deneyde, Llama 3.2 11B'nin ekstrektif soru-cevaplama için ince ayarı üzerine odaklanılmıştır; amaç, kullanıcı sorgularına doğrudan yanıt veren kesin metin parçalarını çıkarmaktır, içeriği özetlemek veya yeniden ifade etmek yerine. Deney, Google Colab platformunda A100 GPU kullanılarak gerçekleştirilmiş ve uygulama Hugging Face Transformers kütüphanesi ile kolaylaştırılmıştır. İnce ayar sürecinin sonuçları umut verici olup, modelin doğrulama setindeki performansında önemli bir artış göstermiştir. BERT skoru 0.6469'dan 0.7505'e yükselirken, tam eşleşme skoru 0.116'dan 0.418'e çıkmıştır. Bu iyileştirmeler, Q-LoRA tekniğinin Llama 3.2 11B modelini ekstrektif soru-cevaplama görevlerine etkili bir şekilde uyarladığını göstermektedir. Bu makale, benzer yöntemleri diğer modeller ve görevler için uygulamak isteyen araştırmacılar için bir rehber niteliğindedir ve doğal dil işleme alanında ince ayarın potansiyelini vurgulamaktadır.
io.net, AI Model Geliştirmeyi Geliştirmek İçin OpenLedger ile Ortaklık Kurdu cover
6 ay önce

io.net, AI Model Geliştirmeyi Geliştirmek İçin OpenLedger ile Ortaklık Kurdu

Bu hafta, merkeziyetsiz dağıtılmış GPU kaynak platformu io.net, yapay zeka (AI) için özel olarak tasarlanmış bir veri blok zinciri olan OpenLedger ile stratejik bir ortaklık duyurdu. Bu işbirliği, OpenLedger'in io.net'in küresel GPU hesaplama kaynaklarını kullanmasını sağlayarak AI modellerini geliştirme ve eğitme yeteneğini artıracak. GPU'ların İnterneti olarak bilinen io.net, dağıtılmış GPU kaynaklarının güçlü bir ağını sunarak OpenLedger'in AI modellerinin geliştirilmesini hızlandırmasına ve geliştiricilerin daha verimli AI tabanlı merkeziyetsiz uygulamalar (DApp'ler) oluşturmasına olanak tanır. io.net'te İş Geliştirme Başkan Yardımcısı olan Tausif Ahmad'a göre, bu ortaklık OpenLedger'e AI modellerini ölçeklendirmek için güvenilir bir altyapı sağlayacak ve yeni kullanım senaryolarını açarak merkeziyetsiz AI alanında yenilikçi bir sağlayıcı olarak konumunu pekiştirecek. GPU kaynakları sağlamanın yanı sıra, io.net'in altyapısı AI modellerinin çıkarımını ve barındırılmasını destekleyecek, optimal performans ve ölçeklenebilirlik sağlayacaktır. Bu ortaklığın, OpenLedger'in güvenilir veri setleri sağlayan önde gelen bir sağlayıcı olarak itibarını artırması bekleniyor ve blok zinciri ile AI arasındaki yeniliği besleyecektir. İşbirliği, yüksek kaliteli verilerin güvenli ve verimli bir şekilde oluşturulmasını sağlarken yenilik ve performansı artırmayı hedefliyor. OpenLedger'den bir ekip üyesi, io.net'in GPU altyapısını kullanmanın kullanıcıların AI modellerini daha verimli bir şekilde ince ayar yapmalarına olanak tanıyacağını ve nihayetinde güvenilir ve açıklanabilir AI modellerinin geliştirilmesine yol açacağını vurguladı. OpenLedger'in GPU kaynak sağlayıcısı olarak io.net'i seçmesindeki önemli bir faktör, sunulan maliyet etkin ve ölçeklenebilir hesaplama çözümleridir. Bu ortaklık, OpenLedger'in merkezi bulut sağlayıcılarıyla ilişkili yüksek maliyetlerin kısıtlamaları olmadan hizmetlerini genişletmesini sağlayacaktır. Daha büyük veri setlerini işleyerek ve eşi benzeri görülmemiş bir verimlilikle AI modelleri geliştirerek, OpenLedger merkeziyetsiz AI yeniliğinin sınırlarını zorlamayı hedefliyor. Sonuç olarak, bu ortaklık OpenLedger'in açık, işbirlikçi bir veri ortamını teşvik etme misyonuyla uyumlu olup, blok zinciri destekli AI çözümlerinin benimsenmesini teşvik etmektedir.
Stratos, Dağıtık AI Altyapısını Geliştirmek İçin Cortensor ile Ortaklık Kurdu cover
6 ay önce

Stratos, Dağıtık AI Altyapısını Geliştirmek İçin Cortensor ile Ortaklık Kurdu

Dağıtık AI alanında önemli bir gelişme olarak Stratos, dağıtık AI çıkarım ağlarının lideri Cortensor ile bir ortaklık kurduğunu duyurdu. Bu işbirliği, Stratos'un sağlam dağıtık depolama ve akış çözümlerini Cortensor'un yenilikçi AI ekosistemine entegre ederek dağıtık AI altyapısını geliştirmeyi hedefliyor. Ortaklık, hem kamu hem de özel AI iş yüklerinin sorunsuz ve güvenilir bir şekilde çalışmasını sağlayarak, güvenli ve ölçeklenebilir veri depolama sunmayı vaat ediyor ve böylece genel ağ performansını artırıyor. Bu ortaklığın ana özelliklerinden biri, gerçek zamanlı çıkarım akış yeteneklerinin tanıtılmasıdır. Stratos'un gelişmiş video akış API'leri, Cortensor'un anlık AI çıkarım çıktıları sunmasını sağlayarak dinamik uygulamalar ve kullanıcı odaklı görevleri kolaylaştıracaktır. Bu iyileştirmenin, Stratos'un yüksek verimli altyapısının düğümden düğüme iletişimi geliştirmesi sayesinde AI iş yükleri için performansı optimize etmesi bekleniyor; bu, yüksek talep ortamlarında bile verimli veri akışını sağlayacaktır. Bu, gelişmiş AI araçlarını daha erişilebilir ve maliyet etkin hale getirmek için kritik bir adımdır. Her iki şirket de Cortensor'un Görev Kanıtı (PoI) ve Faydalı İş Kanıtı (PoUW) sistemleri ile görevleri doğrulayıp anlamlı işler için katkıda bulunanları ödüllendirerek dağıtık bir AI geleceği vizyonunu paylaşıyor. Stratos, Web3 ve AI çözümlerini destekleyen dağıtık altyapısıyla, 900'den fazla aktif küresel depolama düğümüne ve 21 PB kapasiteye sahiptir. Bu ortaklık, yeniliklere olan bağlılıklarını sergilemekle kalmayıp, aynı zamanda işletmeler, geliştiriciler ve topluluk odaklı madenciler için yeni olanaklar açmayı hedefliyor ve nihayetinde daha kapsayıcı ve ölçeklenebilir bir AI ekosistemi inşa etmeyi amaçlıyor. Dağıtık AI çözümlerinin sınırlarını zorlamaya devam ederken daha fazla güncelleme için bizi izlemeye devam edin.
En son DePIN haberleri ve güncellemeleri için kaydolun