Mizzle sichert sich eine Investition von 1 Mio. USD von Onextel zur Beschleunigung der Entwicklung dezentralisierter Infrastruktur
Montag, Juli 15, 2024 10:53 AM
411

Mizzle, eine DePIN-Plattform, hat eine Investition in Höhe von 1 Million US-Dollar vom Technologie-Investor Onextel erhalten, um ihre Compute- und Storage-Plattform zu verbessern. Die Mittel werden verwendet, um die Plattformfähigkeiten, Sicherheitsfunktionen und Benutzererfahrung zu verbessern. Mizzles Technologie kombiniert KI-basiertes DevOps, eBPF-Sicherheit und fortschrittliche Verschlüsselung, um eine sichere und effiziente dezentrale Infrastrukturlösung anzubieten. Die Investition soll Mizzle dabei helfen, einen signifikanten Anteil am wachsenden DePIN-Markt zu erobern.
Related News

vor einem Tag
Die Dezentralisierung der KI-Computing: Eine neue Ära der Nachfrage und EffizienzDie KI-Branche erlebt derzeit einen entscheidenden Moment, der durch das Aufkommen kleinerer und effizienterer Modelle wie DeepSeek gekennzeichnet ist. Entgegen den Erwartungen verringern diese Fortschritte nicht die Nachfrage nach Rechenressourcen; vielmehr verstärken sie sie, was mit Jevons' Paradoxon übereinstimmt, das besagt, dass eine erhöhte Effizienz zu einem größeren Gesamtverbrauch führen kann. Da KI-Modelle günstiger, schneller und zugänglicher werden, steigt die Nachfrage nach Rechenleistung weiter an, was kritische Fragen aufwirft, wie man die weit verbreitete KI-Inferenz unterstützen kann, ohne neue Engpässe in der bestehenden Infrastruktur zu schaffen.
Historisch gesehen war die KI auf großangelegte zentrale Infrastrukturen angewiesen, die von Hyperscalern kontrolliert werden, was Bedenken hinsichtlich Zugänglichkeit, Preisgestaltung und Verfügbarkeit aufwarf. Die Einführung von Modellen wie DeepSeek stellt jedoch dieses Paradigma in Frage, indem sie zeigt, dass Effizienzgewinne neuen Druck auf Rechenressourcen ausüben können. Da immer mehr Einzelpersonen und Organisationen KI-Technologien übernehmen, steigt die Gesamtnachfrage nach Rechenleistung in die Höhe, insbesondere da Open-Source-Alternativen an Bedeutung gewinnen. Dieser Wandel ist in der raschen Entwicklung kostenloser und Open-Source-Modelle zu erkennen, die proprietäre Optionen übertreffen und es Startups und unabhängigen Entwicklern ermöglichen, am KI-Markt teilzunehmen, ohne den Einschränkungen traditioneller Cloud-Anbieter unterworfen zu sein.
Mit der steigenden Nachfrage nach skalierbarer und kosteneffizienter KI-Infrastruktur wird dezentrales Computing als praktikable Lösung immer wichtiger. Durch die Verteilung von Arbeitslasten über ein globales Netzwerk von Hochleistungs-GPUs adressiert dieses Modell viele Ineffizienzen, die mit zentralisierten Systemen verbunden sind. Dezentralisierung verbessert nicht nur die Kosteneffizienz und Skalierbarkeit, sondern bietet auch mehr Privatsphäre und Kontrolle über Daten. Der Erfolg von Modellen wie DeepSeek verdeutlicht die Notwendigkeit eines Wandels hin zu verteiltem KI-Computing, bei dem Entwickler und Forscher unabhängig von monopolisierten Cloud-Infrastrukturen arbeiten können. Die Zukunft des KI-Computings besteht nicht darin, die Nachfrage zu reduzieren, sondern sich an den ständig wachsenden Bedarf an Rechenleistung anzupassen und sicherzustellen, dass das KI-Ökosystem parallel zu seinen Fortschritten weiterentwickelt wird.

vor einem Tag
Mawari startet Digital Entertainment City Namba: Eine Revolution der Smart CitiesIn einer bahnbrechenden Zusammenarbeit hat Mawari sich mit der Nankai Electric Railway Co., Ltd., der Meta Osaka Co., Ltd. und der e-stadium Co., Ltd. zusammengeschlossen, um die "Digital Entertainment City Namba" in Osaka, Japan, ins Leben zu rufen. Dieses innovative Projekt zielt darauf ab, die weltweit erste Smart City zu schaffen, die künstliche Intelligenz (KI), erweiterte Realität (XR) und dezentrale physische Infrastruktur-Netzwerke (DePIN) auf städtischer Ebene integriert. Durch die Nutzung der einzigartigen Stärken jedes Partners soll die Initiative fortschrittliche Technologie mit dem täglichen urbanen Leben verbinden, eine lebendige digitale Kultur fördern und soziale Herausforderungen durch Gemeinschaftsengagement angehen.
Mawaris zentrale Rolle besteht darin, Edge-Computing- und Rendering-Geräte in den Immobilien von Nankai zu implementieren, um eine dezentrale Streaming-Infrastruktur aufzubauen. Dieses Setup verbessert das Benutzererlebnis, indem es die Latenz minimiert und Echtzeit-Interaktionen mit lebensechten KI-Avataren ermöglicht. Diese Avatare sind darauf ausgelegt, bei verschiedenen Aufgaben zu helfen, wie z.B. Touristen zu führen und die Kommunikation über Sprachbarrieren hinweg zu erleichtern. Das Projekt ist ein bedeutender Meilenstein für Mawari, da es darauf abzielt, KI-gesteuerte immersive Erlebnisse zu demokratisieren, wobei CEO Luis Oscar Ramirez das Potenzial für eine breite Akzeptanz und greifbare soziale Auswirkungen betont.
Die voraussichtlichen Auswirkungen der Digital Entertainment City Namba gehen über Unterhaltung hinaus und zielen auf Sektoren wie Tourismus und Arbeitskräfte ab. Durch die Bereitstellung mehrsprachiger 3D-Guides und immersiver kultureller Erlebnisse zielt das Projekt darauf ab, mehr ausländische Besucher nach Japan zu bringen und damit lokale Unternehmen zu stärken. Darüber hinaus wird Japans Arbeitskräftemangel angegangen, indem flexible, remote Arbeitsmöglichkeiten durch KI-gesteuerte Avatare geschaffen werden, was die Inklusivität für verschiedene Gruppen fördert. Diese Initiative verbessert nicht nur die Zugänglichkeit, sondern entspricht auch Japans dringendem Bedarf an innovativen Lösungen für den Arbeitsmarkt und markiert einen transformativen Schritt in Richtung einer digital integrierten urbanen Zukunft.

vor einem Tag
Acurast integriert Monad Testnet zur Verbesserung der Blockchain-FähigkeitenAcurast hat bedeutende Fortschritte erzielt, indem es erfolgreich das Testnet von Monad in sein Netzwerk integriert hat, was die Fähigkeiten der Echtzeit- und Hochleistungs-Blockchain-Technologie verbessert. Diese Integration ermöglicht es, Monad nahtlos über Acurast zugänglich zu machen, wodurch der Onboarding-Prozess für Projekte innerhalb des Monad-Ökosystems optimiert wird. Die Zusammenarbeit ermöglicht es Projekten, Acurasts dezentrales Compute-Netzwerk zu nutzen, das effiziente und kostengünstige Off-Chain-Berechnungen bietet, was letztendlich das Monad-Ökosystem stärkt und Entwicklern einen zugänglicheren Weg bietet, leistungsstarke Verarbeitungskapazitäten zu nutzen.
Monad zeichnet sich durch seine hochmoderne Blockchain-Infrastruktur aus, die Echtzeitausführung und Skalierbarkeit betont. Die Integration mit Acurast verstärkt die Kernvorteile von Monad, wie optimierte Ausführungsschichten, die den Transaktionsdurchsatz und die Effizienz erheblich verbessern. Acurast ergänzt dies, indem es eine dezentrale Compute-Umgebung bereitstellt, die die Datenintegrität und Sicherheit gewährleistet und gleichzeitig die Echtzeit-Reaktionsfähigkeit aufrechterhält. Diese Synergie ermöglicht es Entwicklern, innovativ zu sein, ohne Geschwindigkeit oder Sicherheit zu opfern, und ebnet den Weg für fortschrittliche Anwendungen wie Hochfrequenzhandel-Algorithmen und KI-gesteuerte Lösungen.
Die Bedeutung dieser Integration geht über bloße technische Verbesserungen hinaus; sie stellt einen entscheidenden Moment für Dezentrale Physische Infrastruktur Netzwerke (DePIN) dar. Während Sektoren wie Gaming und DeFi an Bedeutung gewonnen haben, stellt DePIN die nächste Grenze in der dezentralen Technologie dar. Durch die Zusammenführung von Acurasts Compute-Netzwerk mit Monad fördert die Partnerschaft nicht nur die Rechenfähigkeiten, sondern macht auch dezentrale Infrastruktur zugänglicher und robuster. Mit über 37.000 onboarded Geräten und rund 170 Millionen Transaktionen im Testnet ist Acurast bereit, der wachsenden Nachfrage nach realen Anwendungen in der Krypto-Ökonomie gerecht zu werden und die zukünftige Landschaft von DePIN zu gestalten.

vor einem Tag
Digitale Unterhaltungsstadt Namba: Eine Fusion von KI und XR in OsakaDie Digitale Unterhaltungsstadt Namba ist ein innovatives Projekt der erweiterten Realität (XR), das in Osaka, Japan, angesiedelt ist und künstliche Intelligenz (KI) als Führer in der gesamten Stadt integriert. Diese Initiative wird durch das dezentrale physische Infrastruktur-Netzwerk (DePIN) von Mawari unterstützt und zeigt, wie DePINs effektiv den Rechenbedarf sowohl von XR- als auch von KI-Technologien erfüllen können. Die Zusammenarbeit umfasst wichtige Akteure wie Mawari, Meta Osaka, die Nankai Electric Railway und das Namba e-stadium, und hebt Osakas reiches kulturelles und technologisches Erbe hervor, während die Grenzen immersiver Erlebnisse erweitert werden.
Das Projekt zielt darauf ab, die Touristenerlebnisse zu verbessern, indem virtuelle KI-Führer eingesetzt werden, die verschiedene Aufgaben übernehmen können, von der Bereitstellung von Informationen bis hin zu Kundenservice. Diese KI-gesteuerten Charaktere sind darauf ausgelegt, intuitive Interaktionen zu ermöglichen, die Sprachbarrieren überwinden und den Tourismus zugänglicher machen. Die Integration von KI in XR-Erlebnisse stellt einzigartige Herausforderungen dar, insbesondere aufgrund der erheblichen Rechenleistung, die für die Grafikdarstellung und die KI-Verarbeitung erforderlich ist. DePINs, wie sie von Mawari angeboten werden, versprechen, diese Herausforderungen zu mildern, indem sie dezentrale GPU-Netzwerke nutzen, um Latenz und Bandbreitennachfrage zu reduzieren.
Mit dem wachsenden Bedarf an KI-Verarbeitung wird der Übergang von der grafischen Darstellung zu KI-Fähigkeiten unter GPU-DePINs zunehmend üblich. Besonders bemerkenswert ist, dass das Render Network erfolgreich den Fokus auf KI-Verarbeitung neben der ursprünglichen Ausrichtung auf Grafik erweitert hat. Das Projekt Digitale Unterhaltungsstadt Namba veranschaulicht diesen Trend und zeigt das Potenzial dezentraler GPU-Netzwerke, die Konvergenz von XR- und KI-Technologien zu unterstützen. Darüber hinaus werden DePIN-Token nach japanischem Recht als Utility-Token klassifiziert, was hilft, regulatorische Herausforderungen zu bewältigen und Innovationen in diesem Sektor zu fördern.

vor einem Tag
Entsperren Sie unvergleichliche Rechenleistung mit GPUs auf Aleph CloudGPUs sind jetzt in [Aleph Cloud](https://aleph.im/) integriert und bieten Hochleistungsrechnen für KI-Dienste, Rendering, Gaming, KI-Agenten und mehr.
Wir freuen uns, einen bedeutenden Meilenstein für unser dezentrales Cloud-Ökosystem mit der neuesten Integration von GPUs bekannt zu geben. Die neue Aleph Cloud Core Channel Node-Anwendung führt die GPU-Integration ein, eine transformative Funktion, die Aleph Cloud als leistungsstarke und wettbewerbsfähige Lösung für Hochleistungsrechenbedürfnisse positioniert. Darüber hinaus bringt dieses Release Funktionen zur Kontoverwaltung, Preisabschätzungen und eine Reihe von Leistungsverbesserungen mit sich, die Aleph Cloud zu einer noch robusteren Plattform für Entwickler und Unternehmen machen.
Mit der GPU-Unterstützung können Benutzer jetzt unvergleichliche Rechenleistung für Aufgaben wie KI-Training, Rendering, Gaming und den Betrieb von KI-Agenten freischalten. Durch die Nutzung der dezentralen Infrastruktur bietet Aleph Cloud sowohl Skalierbarkeit als auch Flexibilität zu äußerst wettbewerbsfähigen Preisen, alles über das bequeme Pay-as-You-Go (PAYG)-Modell mit ALEPH-Token.
# Revolutionierung des Cloud-Computing mit GPU-Integration
Die Integration von GPUs in Aleph Cloud stellt einen entscheidenden Schritt nach vorne dar. Durch den Zugang zu sowohl Verbraucher- als auch Unternehmens-GPUs können Benutzer jetzt die genauen Ressourcen auswählen, die sie über unsere intuitive Schnittstelle unter console.twentysix.cloud benötigen. Dies ermöglicht es ihnen, ihre Arbeitslasten nahtlos zu skalieren, egal ob sie maschinelles Lernen Modelle erstellen, komplexe Grafiken rendern oder cloudbasiertes Gaming betreiben.
Jedes GPU-Modell ist mit spezifischen vCPU-, RAM- und Festplattenspeicherzuweisungen gekoppelt, um eine Spitzenleistung für jede Arbeitslast zu gewährleisten. Zum Beispiel kostet ein RTX 4090, ideal für Gaming oder kleinere KI-Projekte, etwa 240 $ pro Monat*, während ein Unternehmens-GPU H100, das für datenintensive Operationen konzipiert ist, etwa 1.920 $ pro Monat* kostet.
# Verbesserte Pay-As-You-Go-Modell
Das PAYG-Modell von Aleph Cloud ist darauf ausgelegt, Flexibilität und Kostentransparenz zu bieten, ein entscheidender Vorteil für Unternehmen und Entwickler. Mit ALEPH-Token als exklusiver Zahlungsmethode können Benutzer ein nahtloses Zahlungserlebnis über Blockchains wie Base und Avalanche genießen. Dies gewährleistet nicht nur Erschwinglichkeit, sondern auch Zugänglichkeit für ein globales Publikum.
Darüber hinaus wird, wenn ein Benutzer eine GPU-gestützte virtuelle Maschine bereitstellt und eine Zahlung initiiert, das System automatisch zwei Zahlungsströme erstellen. 80 % der Zahlung werden direkt an den Knotenbetreiber, der die Rechenleistung bereitstellt, zugewiesen, während 20 % zum Aleph Cloud-Treasury beitragen. Dieses Modell gewährleistet eine faire und nachhaltige Verteilung der Ressourcen, die Knotenbetreiber anreizt und gleichzeitig in das kontinuierliche Wachstum und die Entwicklung des Aleph Cloud-Ökosystems reinvestiert.
Die Preisstruktur ist einfach, aber äußerst wettbewerbsfähig. Zum Beispiel:
* Verbraucher-GPUs wie der RTX 4090 kosten etwa 111 $ pro Monat, während ein RTX 4000 ADA nur etwa 55 $ pro Monat kostet*.
* Unternehmens-GPUs wie die A100 und H100 sind für intensive Aufgaben konzipiert und kosten etwa 875 $ bzw. 583 $ pro Monat*.
Diese transparente Struktur ermöglicht es Benutzern, genau zu budgetieren und ihre Ressourcen entsprechend den Entwicklungen ihrer Projekte zu skalieren.

Preise aufgeschlüsselt am 18.02.2025
# Neue Funktionen für ein optimiertes Benutzererlebnis
Zusätzlich zur GPU-Integration bringt dieses Release mehrere Funktionen mit sich, die darauf abzielen, die Leistung und Benutzerfreundlichkeit zu verbessern. Zu den wichtigsten Highlights gehören:
* Aggregates Caching: Durch die Implementierung von Caching für Eigentümeraggregate und Metrikdaten bietet die Plattform jetzt schnellere Reaktionszeiten und reibungslosere Leistung.
* Preisabschätzung: Benutzer können jetzt die Kosten für ausführbare Nachrichten vor dem Senden schätzen, was mehr Transparenz und Kontrolle bietet.
* Vorab berechnete Salden: Diese Funktion verbessert die Systemleistung erheblich, indem sie den Rechenaufwand reduziert.
* Kostenservice-Updates: Der Kostenservice verwendet jetzt Preisaggregate für genauere Schätzungen.
Diese Verbesserungen machen Aleph Cloud insgesamt zuverlässiger und benutzerfreundlicher und festigen ihre Position als führende Lösung für dezentrales Cloud-Computing.
## Neue Anwendungsfälle mit GPUs freischalten
Die Hinzufügung von GPUs erweitert die Möglichkeiten von Aleph Cloud, um eine Vielzahl von Branchen und Anwendungen zu bedienen:
* KI und maschinelles Lernen: Trainieren und implementieren Sie maschinelle Lernmodelle schneller und effizienter.
* Rendering: Erstellen Sie atemberaubende visuelle Effekte und hochwertige 3D-Grafiken mit reduzierten Renderzeiten.
* Gaming: Bieten Sie nahtlose, leistungsstarke Erlebnisse für Cloud-Gaming-Plattformen.
* KI-Agenten: Betreiben Sie fortschrittliche KI-Agenten mit robusten, dezentralen Rechenressourcen.
Diese Anwendungsfälle zeigen die Vielseitigkeit des GPU-Angebots von Aleph Cloud und machen es zu einer überzeugenden Wahl für Entwickler, Kreative und Unternehmen.
# Ausblick
Die Veröffentlichung der GPU-Integration und der begleitenden Funktionen stellt einen bedeutenden Fortschritt für Aleph Cloud und seine Community dar. Während wir weiterhin unsere Plattform verbessern, bleiben wir verpflichtet, den Benutzern die Werkzeuge zu geben, die sie benötigen, um in einer dezentralen Welt zu innovieren, zu skalieren und erfolgreich zu sein.
Um diese neuen Funktionen zu erkunden und GPUs auf Aleph Cloud zu nutzen, besuchen Sie noch heute [console.twentysix.cloud](https://console.twentysix.cloud/computing/gpu-instance/). Für weitere Updates folgen Sie uns auf Twitter und treten Sie unserer Discord-Community bei. Lassen Sie uns gemeinsam die Zukunft des Cloud-Computing neu definieren.
*Diese Preise sind in USD umgerechnet aus dem aktuellen Preis des ALEPH-Tokens. Diese Daten sollten sich im Laufe der Zeit entwickeln.*

vor 2 Tagen
Zeeve startet Cogitus: Ein Game-Changer für die Bereitstellung von Avalanche L1 TestnetsAm 20. Februar 2025 stellte Zeeve, ein führender Anbieter von Blockchain-Infrastruktur-Lösungen, Cogitus vor, eine Plattform zur Bereitstellung mit einem Klick für Avalanche Layer 1 (L1) Testnets. Diese innovative Plattform ermöglicht es Web3-Startups und Entwicklern, vollständig funktionale öffentliche Testnets für nur 50 USD in den ersten sechs Monaten zu starten. Traditionell erforderte die Bereitstellung eines unabhängigen L1-Netzwerks erhebliche Ressourcen und umfangreiche DevOps-Expertise, aber Cogitus zielt darauf ab, diesen Prozess zu vereinfachen und ihn für Entwickler aus verschiedenen Branchen, einschließlich Gaming und Finanzen, zugänglicher zu machen.
Avalanche L1s haben aufgrund ihrer anpassbaren und souveränen Blockchain-Umgebungen an Popularität gewonnen. Sie bieten unabhängige Governance, Validator-Strukturen und Wirtschaftsmodelle und gewährleisten gleichzeitig die Interoperabilität innerhalb des breiteren Avalanche-Ökosystems. Mit der Einführung von Cogitus können Entwickler nun ihre eigenen Testnets bereitstellen und experimentieren, indem sie Konfigurationen in Echtzeit anpassen, um ihren spezifischen Anwendungsfällen gerecht zu werden. Diese Flexibilität positioniert Avalanche L1s als bevorzugte Lösung für hochleistungsfähige dezentrale Anwendungen (dApps) und Web3-Startups, die nach skalierbaren Blockchain-Lösungen suchen.
Zu den Hauptmerkmalen von Cogitus gehören vollständig ausgestattete öffentliche Testnets mit vorkonfigurierten Validator-Knoten, RPC-Endpunkten und speziellen Explorern, die alle bereit zur Bereitstellung sind. Die Plattform automatisiert die Netzwerkkonfiguration und beseitigt die technischen Komplexitäten, die oft mit solchen Setups verbunden sind. Darüber hinaus bietet sie eine proaktive Überwachung rund um die Uhr und Multi-Cloud-Redundanz, um eine hohe Verfügbarkeit zu gewährleisten. Mit einer rabattierten Mainnet-Bereitstellung für 995 USD wird Cogitus von Zeeve die Art und Weise revolutionieren, wie Entwickler Avalanche L1s bereitstellen und skalieren, und eine schnelle Innovation in Sektoren wie Gaming, DeFi und KI-gesteuerten Netzwerken ermöglichen.
Melden Sie sich für die neuesten DePIN-Nachrichten und Updates an