Neueste DePIN KI Nachrichten

KI Projekte anzeigen
CreatorBid arbeitet mit io.net zusammen, um die KI-Entwicklung durch ein dezentrales GPU-Netzwerk zu verbessern cover
vor 6 Monaten

CreatorBid arbeitet mit io.net zusammen, um die KI-Entwicklung durch ein dezentrales GPU-Netzwerk zu verbessern

In einer bedeutenden Entwicklung für die KI-Creator-Wirtschaft hat io.net eine strategische Partnerschaft mit CreatorBid angekündigt, einer Plattform, die sich auf KI-gesteuerte Tools für Kreative und Marken spezialisiert hat. Diese Zusammenarbeit ermöglicht es CreatorBid, das dezentrale GPU-Netzwerk von io.net zu nutzen, was die Skalierbarkeit und Effizienz seiner Bild- und Videomodelle verbessert. Durch die Nutzung dieser dezentralen Infrastruktur zielt CreatorBid darauf ab, die Ressourcennutzung zu optimieren und gleichzeitig die Kosten zu minimieren, wodurch Hochleistungsrechnen für Unternehmen, die in der KI-Technologie tätig sind, zugänglicher wird. Tausif Ahmed, VP für Geschäftsentwicklung bei io.net, betonte die Vorteile dieser Partnerschaft und erklärte, dass sie es CreatorBid ermöglicht, ihr dezentrales GPU-Netzwerk für fortschrittliche KI-Lösungen zu nutzen. Der CEO von CreatorBid, Phil Kothe, teilte diese Ansicht und hob das Potenzial skalierbarer GPU-Ressourcen hervor, um KI-Influencer und -Agenten zu stärken. Diese Partnerschaft wird die Content-Erstellung revolutionieren, da sie es Kreativen ermöglicht, das Publikum zu erreichen und autonom vielfältige Inhaltsformate zu produzieren, was den Weg für eine neue Ära im digitalen Unternehmertum ebnet. CreatorBid steht an der Spitze der KI-Creator-Wirtschaft und bietet Tools, die es Kreativen ermöglichen, ihre Inhalte zu monetarisieren und lebendige Gemeinschaften rund um KI-Agenten aufzubauen. Diese anpassbaren digitalen Personas fördern Engagement und Interaktion und stärken die Mitbesitzverhältnisse zwischen Kreativen und Fans. Durch die Integration modernster KI-Tools mit Blockchain-Technologie definiert CreatorBid die Landschaft der Kreativen neu und positioniert sich als Schlüsselakteur im Übergang zu einer autonomen Creator-Wirtschaft. Die Partnerschaft mit io.net zeigt nicht nur die praktischen Anwendungen dezentraler GPU-Netzwerke, sondern beschleunigt auch die Vision von CreatorBid für eine KI-gesteuerte Zukunft in der Content-Erstellung und Markenbildung.
Dezentralisierte EdgeAI: Demokratisierung des Zugangs zu Künstlicher Intelligenz cover
vor 6 Monaten

Dezentralisierte EdgeAI: Demokratisierung des Zugangs zu Künstlicher Intelligenz

Die Landschaft der Künstlichen Intelligenz (KI) befindet sich im Wandel mit dem Aufkommen der dezentralisierten EdgeAI, die darauf abzielt, den Zugang zu KI-Technologien zu demokratisieren. Derzeit dominieren einige wenige große Technologieunternehmen, darunter OpenAI, IBM, Amazon und Google, die KI-Infrastruktur, was Barrieren für kleinere Unternehmen schafft und den Zugang für Millionen von Nutzern und Unternehmen weltweit einschränkt. Diese zentrale Kontrolle erhöht nicht nur die Kosten, sondern schränkt auch die Innovation ein. Die dezentralisierte EdgeAI, exemplifiziert durch Initiativen wie Network3, versucht, diese Herausforderungen anzugehen, indem sie dezentrale physische Infrastruktur (DePIN) und EdgeAI integriert, sodass KI-Systeme auf verschiedenen Geräten laufen können, während Privatsphäre und Gemeinschaftsbeteiligung gewährleistet sind. Ein wesentlicher Vorteil von EdgeAI ist die Fähigkeit, die Abhängigkeit von großen Rechenzentren, die von Technologiegiganten betrieben werden, zu verringern. Traditionelle KI-Modelle, insbesondere große Sprachmodelle (LLMs) wie GPT-3, erfordern erhebliche Ressourcen für das Training, was oft zwischen 500.000 und 4,6 Millionen Dollar kostet. Diese finanzielle Barriere verstärkt das Monopol der großen Technologieunternehmen. Im Gegensatz dazu ermöglicht EdgeAI Entwicklern, Modelle auf kleineren Geräten, von Smartphones bis hin zu IoT-Geräten, zu trainieren und bereitzustellen, wodurch die Zugänglichkeit erweitert und Innovation gefördert wird. Damit EdgeAI jedoch sein volles Potenzial entfalten kann, müssen Geräte in der Lage sein, effektiv zu kommunizieren und Ressourcen zu teilen, um Einschränkungen bei der Berechnung und Speicherung zu überwinden. Das innovative dezentrale föderierte Lernframework von Network3 stellt einen bedeutenden Fortschritt im Bereich des kollaborativen KI-Trainings dar. Durch die Möglichkeit, dass mehrere Geräte oder 'Knoten' ihre Ressourcen bündeln, verbessert dieses Framework die Effizienz und das Wachstum von KI-Systemen. Die Integration starker Verschlüsselungsmethoden, wie z.B. anonyme zertifikatslose Signaturverschlüsselung (CLSC), gewährleistet einen sicheren Datenaustausch und wahrt gleichzeitig die Privatsphäre. Darüber hinaus optimiert die Verwendung von Reed-Solomon-Codierung die Datenintegrität. Infolgedessen können Edge-Geräte innerhalb des Network3-Ökosystems lokale Analysen durchführen, was zu niedriger Latenz und Echtzeitreaktionen führt. Dieser dezentrale Ansatz mildert nicht nur das zentrale Monopol, sondern eröffnet auch neue Einnahmequellen für Entwickler und Nutzer und macht KI letztendlich für alle zugänglicher und vorteilhafter.
Feinabstimmung von Llama 3.2: Ein umfassender Leitfaden zur Verbesserung der Modellleistung cover
vor 6 Monaten

Feinabstimmung von Llama 3.2: Ein umfassender Leitfaden zur Verbesserung der Modellleistung

Die kürzliche Veröffentlichung von Llama 3.2 durch Meta stellt einen bedeutenden Fortschritt in der Feinabstimmung großer Sprachmodelle (LLMs) dar, wodurch es für Maschinenlern-Ingenieure und Datenwissenschaftler einfacher wird, die Modellleistung für spezifische Aufgaben zu verbessern. Dieser Leitfaden beschreibt den Feinabstimmungsprozess, einschließlich der notwendigen Einrichtung, der Erstellung von Datensätzen und der Konfiguration von Trainingsskripten. Die Feinabstimmung ermöglicht es Modellen wie Llama 3.2, sich auf bestimmte Bereiche zu spezialisieren, wie z.B. den Kundensupport, was zu genaueren und relevanteren Antworten im Vergleich zu allgemeinen Modellen führt. Um mit der Feinabstimmung von Llama 3.2 zu beginnen, müssen die Benutzer zunächst ihre Umgebung einrichten, insbesondere wenn sie Windows verwenden. Dies umfasst die Installation des Windows-Subsystems für Linux (WSL), um auf ein Linux-Terminal zuzugreifen, die Konfiguration des GPU-Zugriffs mit den entsprechenden NVIDIA-Treibern und die Installation wesentlicher Werkzeuge wie Python-Entwicklungsabhängigkeiten. Sobald die Umgebung vorbereitet ist, können die Benutzer einen Datensatz erstellen, der auf die Feinabstimmung zugeschnitten ist. Beispielsweise kann ein Datensatz erstellt werden, um Llama 3.2 zu trainieren, einfache Mathematikfragen zu beantworten, was ein einfaches Beispiel für gezielte Feinabstimmung darstellt. Nach der Vorbereitung des Datensatzes besteht der nächste Schritt darin, ein Trainingsskript mit der Unsloth-Bibliothek einzurichten, die den Feinabstimmungsprozess durch Low-Rank Adaptation (LoRA) vereinfacht. Dies umfasst die Installation erforderlicher Pakete, das Laden des Modells und den Beginn des Trainingsprozesses. Sobald das Modell feinabgestimmt ist, ist es entscheidend, seine Leistung zu bewerten, indem ein Testdatensatz generiert und die Antworten des Modells mit den erwarteten Antworten verglichen werden. Während die Feinabstimmung erhebliche Vorteile bei der Verbesserung der Modellgenauigkeit für spezifische Aufgaben bietet, ist es wichtig, ihre Einschränkungen und die potenzielle Effektivität von Prompt-Tuning für weniger komplexe Anforderungen zu berücksichtigen.
Stratos geht Partnerschaft mit Tatsu ein, um die dezentrale Identitätsverifizierung zu verbessern cover
vor 6 Monaten

Stratos geht Partnerschaft mit Tatsu ein, um die dezentrale Identitätsverifizierung zu verbessern

In einer bedeutenden Entwicklung innerhalb der Blockchain- und KI-Sektoren hat Stratos eine strategische Partnerschaft mit Tatsu angekündigt, einem wegweisenden dezentralen KI-Krypto-Projekt, das im Bittensor-Netzwerk und im TAO-Ökosystem tätig ist. Tatsu hat bemerkenswerte Fortschritte in der dezentralen Identitätsverifizierung erzielt, indem es fortschrittliche Metriken wie GitHub-Aktivitäten und Kryptowährungsbestände nutzt, um einen einzigartigen menschlichen Score zu erstellen. Dieser innovative Ansatz verbessert die Verifizierungsprozesse und macht sie im dezentralen Umfeld zuverlässiger und effizienter. Mit dem bevorstehenden Start von Tatsu Identity 2.0 und einem neuen Document Understanding Subnetz wird Tatsu die Möglichkeiten der dezentralen KI neu definieren. Die Partnerschaft wird es Tatsu ermöglichen, die dezentralen Speicherlösungen von Stratos zu integrieren, was ihre Datenverwaltung und Sicherheitsprotokolle erheblich stärken wird. Diese Zusammenarbeit ist nicht nur eine Fusion von Technologien, sondern eine Verschmelzung von Fachwissen, die darauf abzielt, die Grenzen des Möglichen im dezentralen Raum zu erweitern. Durch die Nutzung der robusten Infrastruktur von Stratos kann Tatsu sein Angebot verbessern und sicherstellen, dass seine Identitätsverifizierungsprozesse sowohl sicher als auch effizient sind. Diese Synergie wird voraussichtlich Innovation und Wachstum innerhalb des TAO-Ökosystems fördern und neue Anwendungen für die fortschrittliche Technologie von Tatsu eröffnen. Während beide Unternehmen gemeinsam auf diese Reise gehen, sind die Auswirkungen auf die Blockchain-Community erheblich. Die Integration von dezentralem Speicher mit modernsten KI-Lösungen könnte transformative Veränderungen in der Art und Weise, wie die Identitätsverifizierung in verschiedenen Sektoren durchgeführt wird, mit sich bringen. Diese Partnerschaft veranschaulicht das Potenzial der Kombination von dezentralen Technologien mit KI, um sicherere, effizientere und innovativere Lösungen zu schaffen und einen Präzedenzfall für zukünftige Kooperationen im Blockchain-Bereich zu setzen.
Google startet Imagen 3: Eine neue Ära in der KI-Bilderzeugung cover
vor 6 Monaten

Google startet Imagen 3: Eine neue Ära in der KI-Bilderzeugung

Google hat offiziell Imagen 3 gestartet, sein neuestes KI-Modell zur Text-zu-Bild-Erzeugung, fünf Monate nach der ersten Ankündigung auf der Google I/O 2024. Diese neue Version verspricht eine verbesserte Bildqualität mit mehr Details, besserem Licht und weniger visuellen Artefakten im Vergleich zu ihren Vorgängern. Imagen 3 ist darauf ausgelegt, natürliche Sprachaufforderungen genauer zu interpretieren, sodass Benutzer spezifische Bilder ohne komplexe Eingabeaufforderungen generieren können. Es kann eine Vielzahl von Stilen produzieren, von hyperrealistischen Fotografien bis hin zu verspielten Illustrationen, und sogar Text innerhalb von Bildern klar darstellen, was den Weg für innovative Anwendungen wie individuelle Grußkarten und Werbematerialien ebnet. Sicherheit und verantwortungsbewusste Nutzung stehen im Mittelpunkt der Entwicklung von Imagen 3. Google DeepMind hat strenge Datenfilter- und Kennzeichnungstechniken implementiert, um das Risiko der Erzeugung schädlicher oder unangemessener Inhalte zu minimieren. Dieses Engagement für ethische Standards ist entscheidend, da generative KI-Technologie zunehmend in verschiedene Branchen integriert wird. Benutzer, die Imagen 3 ausprobieren möchten, können dies über den Gemini-Chatbot von Google tun, indem sie natürliche Sprachaufforderungen eingeben, die es dem Modell ermöglichen, detaillierte Bilder basierend auf ihren Beschreibungen zu erstellen. Trotz seiner Fortschritte hat Imagen 3 Einschränkungen, die seine Nutzbarkeit für einige Fachleute beeinträchtigen können. Derzeit unterstützt es nur ein quadratisches Seitenverhältnis, was Projekte einschränken könnte, die Landschafts- oder Porträtformate erfordern. Darüber hinaus fehlen Bearbeitungsfunktionen wie Inpainting oder Outpainting, und Benutzer können keine künstlerischen Filter oder Stile auf ihre Bilder anwenden. Im Vergleich zu Wettbewerbern wie Midjourney, DALL-E 3 und Flux übertrifft Imagen 3 die Bildqualität und die Verarbeitung natürlicher Sprache, hat jedoch in Bezug auf Benutzerkontrolle und Anpassungsoptionen Nachteile. Insgesamt ist Imagen 3 ein leistungsstarkes Werkzeug zur Erzeugung hochwertiger Bilder, aber seine Einschränkungen könnten Benutzer abschrecken, die mehr Flexibilität in ihren kreativen Prozessen suchen.
Render Network revolutioniert die digitale Inhaltserstellung mit 'Unification' cover
vor 6 Monaten

Render Network revolutioniert die digitale Inhaltserstellung mit 'Unification'

In einer kürzlichen Diskussion, die von Render Foundation Spaces auf X veranstaltet wurde, gab Jules Urbach, CEO von OTOY und Gründer von Render Network, Einblicke in die bahnbrechenden Errungenschaften, die durch ihre kollaborative Technologie während der Produktion von "765874 Unification", einem Kurzfilm zum 30. Jubiläum von Star Trek, ermöglicht wurden. Urbach betonte, wie Render Network die digitale Inhaltserstellung revolutioniert und es den Kreativen ermöglicht, neue Grenzen in Film, Kunst und Geschichtenerzählen zu erkunden. Die Produktion des Films zeigte das Potenzial von Render Network, die Erstellung hochwertiger Inhalte zu demokratisieren und beeindruckende visuelle Effekte ohne exorbitante Budgets zu ermöglichen. Einer der Höhepunkte des Gesprächs war die innovative Nutzung von maschinellem Lernen (ML), um traditionelle Filmemachprozesse zu verbessern. Urbach stellte fest, dass OTOY eine lange Geschichte in der Nutzung digitaler Doubles und Gesichtsersatz hat, aber technologische Fortschritte es ihnen ermöglichten, die Arbeitsstunden erheblich zu reduzieren. Die Integration von KI rationalisierte die Modellierung der Gesichter der Schauspieler und beseitigte die Notwendigkeit umständlicher Gesichtsmarker. Dies beschleunigte nicht nur den Produktionsprozess, sondern ermöglichte es den Künstlern auch, sich mehr auf das Geschichtenerzählen und weniger auf technische Herausforderungen zu konzentrieren, und zeigte, wie KI und GPU-Rendering die kreative Landschaft transformieren können. Mit Blick auf die Zukunft wird Render Network neue Tools und Integrationen veröffentlichen, insbesondere mit dem bevorstehenden Black Friday. Die Pläne umfassen die Integration von KI-Tools in 3D-Erstellungsworkflows und die Erweiterung der Unterstützung für holografisches Rendering. Urbachs Vision bleibt klar: den Kreativen die Ressourcen zur Verfügung zu stellen, die sie benötigen, um fesselnde Geschichten zu erzählen. Der Erfolg von "Unification" ist ein Beweis für den innovativen Geist von Render Network und ebnet den Weg für zukünftige Kreative, die Grenzen des Möglichen in der digitalen Inhaltserstellung zu erweitern.
Das AI Lab kooperiert mit Theta EdgeCloud zur Verbesserung der KI-Ausbildung cover
vor 6 Monaten

Das AI Lab kooperiert mit Theta EdgeCloud zur Verbesserung der KI-Ausbildung

Das AI Lab, ein führender Anbieter von E-Learning in Südkorea, hat kürzlich eine mehrjährige Vereinbarung mit Theta EdgeCloud getroffen, die einen bedeutenden Schritt zur Verbesserung seines Bildungsangebots in Künstlicher Intelligenz (KI) und Datenanalyse (DA) darstellt. Diese Partnerschaft ermöglicht es dem AI Lab, die verteilten GPU-Ressourcen von Theta EdgeCloud zu nutzen, was eine fortschrittliche KI-Ausbildung, Modelltraining und generative KI-Anwendungen erleichtert. Mit einem starken Fokus auf praktische Erfahrungen und interaktive Inhalte zielt das AI Lab darauf ab, hochwertige Bildung durch seine innovative Plattform CodingX anzubieten, die für ihre Effektivität beim Lehren von KI- und Programmierfähigkeiten weltweit anerkannt ist. Die Zusammenarbeit mit Theta EdgeCloud wird voraussichtlich mehrere Vorteile für das AI Lab bringen. Durch die Nutzung von On-Demand-GPU-Ressourcen kann die Institution die Flexibilität des Lehrplans verbessern, was eine nahtlose Integration von KI in ihre Bildungsprogramme ermöglicht. Darüber hinaus wird die Partnerschaft voraussichtlich die Betriebskosten durch die verteilte Infrastruktur von Theta senken, was eine kosteneffiziente Skalierung ihrer Dienstleistungen ermöglicht. Am wichtigsten ist, dass die Integration von KI-gesteuerten Lernmethoden personalisierte Lernerfahrungen ermöglicht, die auf die einzigartigen Bedürfnisse jedes Schülers zugeschnitten sind, wodurch die Gesamtleistung verbessert wird. Theta EdgeCloud hat seine Kundenbasis schnell erweitert und kürzlich Partnerschaften mit renommierten Institutionen wie der Seoul National University und der Peking University geschlossen. Dieses Wachstum unterstreicht die steigende Nachfrage nach skalierbaren und kosteneffektiven Technologielösungen im Bildungssektor. John Choi, CEO des AI Lab, äußerte sich zuversichtlich über die Partnerschaft und hob den starken Ruf von Theta unter südkoreanischen Universitäten hervor sowie das Potenzial, die Operationen des AI Lab in den kommenden Jahren erheblich auszubauen. Diese Zusammenarbeit ist darauf ausgelegt, der steigenden Nachfrage nach technologischen Fähigkeiten in einer von KI geprägten Zukunft gerecht zu werden und das AI Lab als wichtigen Akteur im sich entwickelnden Bildungsbereich zu positionieren.
Feinabstimmung von Llama 3.2 11B mit Q-LoRA für extraktive Fragenbeantwortung cover
vor 6 Monaten

Feinabstimmung von Llama 3.2 11B mit Q-LoRA für extraktive Fragenbeantwortung

Große Sprachmodelle (LLMs) sind zu unverzichtbaren Werkzeugen in der Verarbeitung natürlicher Sprache geworden, die in der Lage sind, eine Vielzahl von Aufgaben zu bewältigen. Aufgrund ihres breiten Trainings schneiden sie jedoch möglicherweise in spezifischen Anwendungen ohne weitere Anpassung nicht optimal ab. Feinabstimmungstechniken wie Q-LoRA ermöglichen es Forschern, vortrainierte Modelle wie Llama 3.2 11B für bestimmte Aufgaben, wie die extraktive Fragenbeantwortung, anzupassen. Dieser Artikel beschreibt den Prozess der Feinabstimmung von Llama 3.2 11B mit Q-LoRA auf dem SQuAD v2-Datensatz und zeigt die Leistungsverbesserungen, die durch diese Methode erzielt wurden. LoRA oder Low-Rank-Adaptation ist eine Technik, die neue Gewichte in ein bestehendes Modell einführt, ohne die ursprünglichen Parameter zu verändern. Durch das Hinzufügen von Adaptergewichten, die die Ausgaben bestimmter Schichten anpassen, ermöglicht LoRA Modellen, ihr vortrainiertes Wissen zu behalten und gleichzeitig neue Fähigkeiten zu erwerben, die auf bestimmte Aufgaben zugeschnitten sind. In diesem Experiment liegt der Fokus auf der Feinabstimmung von Llama 3.2 11B für die extraktive Fragenbeantwortung, mit dem Ziel, präzise Textsegmente zu extrahieren, die Benutzeranfragen direkt beantworten, anstatt den Inhalt zusammenzufassen oder umzuformulieren. Das Experiment wurde auf einer Google Colab-Plattform mit einer A100-GPU durchgeführt, wobei die Hugging Face Transformers-Bibliothek die Implementierung erleichterte. Die Ergebnisse des Feinabstimmungsprozesses waren vielversprechend und zeigten einen signifikanten Anstieg der Leistung des Modells im Validierungsdatensatz. Der BERT-Score verbesserte sich von 0,6469 auf 0,7505, während der exakte Übereinstimmungswert von 0,116 auf 0,418 stieg. Diese Verbesserungen zeigen, dass die Q-LoRA-Technik das Llama 3.2 11B-Modell effektiv für Aufgaben der extraktiven Fragenbeantwortung anpasst. Dieser Artikel dient als Leitfaden für Forscher, die ähnliche Methoden auf andere Modelle und Aufgaben anwenden möchten, und hebt das Potenzial der Feinabstimmung im Bereich der Verarbeitung natürlicher Sprache hervor.
io.net geht Partnerschaft mit OpenLedger ein, um die Entwicklung von KI-Modellen zu verbessern cover
vor 6 Monaten

io.net geht Partnerschaft mit OpenLedger ein, um die Entwicklung von KI-Modellen zu verbessern

In dieser Woche gab die dezentrale Plattform für verteilte GPU-Ressourcen io.net eine strategische Partnerschaft mit OpenLedger bekannt, einer Datenblockchain, die speziell für künstliche Intelligenz (KI) entwickelt wurde. Diese Zusammenarbeit ermöglicht es OpenLedger, die globalen GPU-Computing-Ressourcen von io.net zu nutzen, um seine Fähigkeit zur Verfeinerung und Schulung von KI-Modellen zu verbessern. Bekannt als das Internet der GPUs bietet io.net ein leistungsstarkes Netzwerk verteilter GPU-Ressourcen, das es OpenLedger ermöglicht, die Entwicklung seiner KI-Modelle zu beschleunigen und Entwicklern zu helfen, effizientere KI-basierte dezentrale Anwendungen (DApps) zu erstellen. Laut Tausif Ahmad, Vizepräsident für Geschäftsentwicklung bei io.net, wird diese Partnerschaft OpenLedger eine zuverlässige Infrastruktur bieten, um seine KI-Modelle zu skalieren und neue Anwendungsfälle zu erschließen, wodurch seine Position als innovativer Anbieter im Bereich der dezentralen KI gestärkt wird. Neben der Bereitstellung von GPU-Ressourcen wird die Infrastruktur von io.net die Inferenz und das Hosting von KI-Modellen unterstützen, um optimale Leistung und Skalierbarkeit zu gewährleisten. Diese Partnerschaft wird voraussichtlich den Ruf von OpenLedger als führenden Anbieter zuverlässiger Datensätze verbessern und Innovationen an der Schnittstelle von Blockchain und KI vorantreiben. Die Zusammenarbeit zielt darauf ab, qualitativ hochwertige Daten sicher und effizient zu erstellen und gleichzeitig Innovation und Leistung zu fördern. Ein Teammitglied von OpenLedger betonte, dass die Nutzung der GPU-Infrastruktur von io.net es den Nutzern ermöglichen wird, KI-Modelle effizienter zu optimieren, was letztendlich zur Entwicklung vertrauenswürdiger und erklärbarer KI-Modelle führen wird. Ein wesentlicher Faktor für die Wahl von OpenLedger, io.net als seinen GPU-Ressourcenanbieter auszuwählen, sind die kosteneffizienten und skalierbaren Compute-Lösungen, die angeboten werden. Diese Partnerschaft wird es OpenLedger ermöglichen, seine Dienstleistungen ohne die Einschränkungen hoher Kosten, die mit zentralisierten Cloud-Anbietern verbunden sind, auszubauen. Durch die Verarbeitung größerer Datensätze und die Entwicklung von KI-Modellen mit beispielloser Effizienz strebt OpenLedger an, die Grenzen der dezentralen KI-Innovation zu erweitern. Letztendlich steht diese Partnerschaft im Einklang mit der Mission von OpenLedger, eine offene, kollaborative Datenumgebung zu fördern und die Einführung von blockchain-basierten KI-Lösungen zu unterstützen.
Stratos geht Partnerschaft mit Cortensor ein, um die dezentrale KI-Infrastruktur zu verbessern cover
vor 6 Monaten

Stratos geht Partnerschaft mit Cortensor ein, um die dezentrale KI-Infrastruktur zu verbessern

In einer bedeutenden Entwicklung für die dezentrale KI-Landschaft hat Stratos eine Partnerschaft mit Cortensor, einem führenden Unternehmen im Bereich dezentraler KI-Inferenznetzwerke, bekannt gegeben. Diese Zusammenarbeit zielt darauf ab, die dezentrale KI-Infrastruktur zu verbessern, indem die robusten dezentralen Speicher- und Streaminglösungen von Stratos in das innovative KI-Ökosystem von Cortensor integriert werden. Die Partnerschaft soll eine sichere und skalierbare Datenspeicherung bieten, die sicherstellt, dass sowohl öffentliche als auch private KI-Arbeitslasten nahtlos und zuverlässig betrieben werden können, wodurch die Gesamtleistung des Netzwerks verbessert wird. Eine der Hauptmerkmale dieser Partnerschaft ist die Einführung von Echtzeit-Inferenz-Streaming-Funktionen. Die fortschrittlichen Video-Streaming-APIs von Stratos ermöglichen es Cortensor, sofortige KI-Inferenz-Ausgaben bereitzustellen, was dynamische Anwendungen und benutzergesteuerte Aufgaben erleichtert. Diese Verbesserung wird voraussichtlich die Leistung von KI-Arbeitslasten optimieren, da die Hochdurchsatz-Infrastruktur von Stratos die Kommunikation von Knoten zu Knoten verbessert und einen effizienten Datenfluss selbst in Umgebungen mit hoher Nachfrage gewährleistet. Dies ist ein entscheidender Schritt, um fortschrittliche KI-Tools zugänglicher und kostengünstiger zu machen. Beide Unternehmen teilen eine Vision für eine dezentrale KI-Zukunft, wobei die Systeme von Cortensor zur Validierung von Aufgaben und zur Belohnung von Mitwirkenden für sinnvolle Arbeit, Proof of Inference (PoI) und Proof of Useful Work (PoUW), eingesetzt werden. Stratos, mit seiner dezentralen Infrastruktur, die Web3- und KI-Lösungen unterstützt, verfügt über mehr als 900 aktive globale Speicherknoten und eine Kapazität von 21 PB. Diese Partnerschaft exemplifiziert nicht nur ihr Engagement für Innovation, sondern zielt auch darauf ab, neue Möglichkeiten für Unternehmen, Entwickler und gemeinschaftlich betriebene Miner zu erschließen, um letztendlich ein inklusiveres und skalierbares KI-Ökosystem aufzubauen. Bleiben Sie dran für weitere Updates, während sie weiterhin die Grenzen dezentraler KI-Lösungen erweitern.
Melden Sie sich für die neuesten DePIN-Nachrichten und Updates an