Mizzle sécurise un investissement de 1 million de dollars de la part d'Onextel pour accélérer le développement de l'infrastructure décentralisée

lundi, juillet 15, 2024 10:53 AM
411
Mizzle sécurise un investissement de 1 million de dollars de la part d'Onextel pour accélérer le développement de l'infrastructure décentralisée cover

Mizzle, une plateforme DePIN, a reçu un investissement de 1 million de dollars de l’investisseur technologique Onextel pour améliorer sa plateforme de calcul et de stockage. Les fonds seront utilisés pour améliorer les capacités de la plateforme, les fonctionnalités de sécurité et l’expérience utilisateur. La technologie de Mizzle combine DevOps basé sur l’IA, la sécurité eBPF et le cryptage avancé pour offrir une solution d’infrastructure décentralisée sécurisée et efficace. L’investissement devrait aider Mizzle à capturer une part importante du marché DePIN en croissance.

Related News

La Décentralisation de l'Informatique AI : Une Nouvelle Ère de Demande et d'Efficacité cover
il y a un jour
La Décentralisation de l'Informatique AI : Une Nouvelle Ère de Demande et d'Efficacité
L'industrie de l'IA connaît actuellement un moment décisif caractérisé par l'émergence de modèles plus petits et plus efficaces, tels que DeepSeek. Contrairement aux attentes, ces avancées ne diminuent pas la demande en ressources informatiques ; au contraire, elles l'amplifient, s'alignant sur le paradoxe de Jevons, qui suggère qu'une efficacité accrue peut entraîner une consommation globale plus importante. À mesure que les modèles d'IA deviennent moins chers, plus rapides et plus accessibles, la demande en puissance de calcul continue d'augmenter, soulevant des questions critiques sur la manière de soutenir l'inférence AI généralisée sans créer de nouveaux goulets d'étranglement dans l'infrastructure existante. Historiquement, l'IA a dépendu d'une infrastructure centralisée à grande échelle contrôlée par des hyperscalers, ce qui a conduit à des préoccupations concernant l'accessibilité, les prix et la disponibilité. Cependant, l'introduction de modèles comme DeepSeek remet en question ce paradigme en démontrant que les gains d'efficacité peuvent créer de nouvelles pressions sur les ressources informatiques. À mesure que de plus en plus d'individus et d'organisations adoptent les technologies AI, la demande totale en calcul s'envole, notamment avec l'essor des alternatives open-source. Ce changement est évident dans le développement rapide de modèles gratuits et open-source qui surpassent les options propriétaires, permettant aux startups et aux développeurs indépendants de participer au paysage de l'IA sans les contraintes imposées par les fournisseurs de cloud traditionnels. À mesure que la demande pour une infrastructure AI évolutive et rentable augmente, l'informatique décentralisée émerge comme une solution viable. En distribuant les charges de travail sur un réseau mondial de GPU haute performance, ce modèle aborde de nombreuses inefficacités associées aux systèmes centralisés. La décentralisation améliore non seulement l'efficacité des coûts et l'évolutivité, mais offre également une plus grande confidentialité et un meilleur contrôle des données. Le succès de modèles comme DeepSeek illustre la nécessité d'un changement vers l'informatique AI distribuée, où les développeurs et les chercheurs peuvent opérer indépendamment d'une infrastructure cloud monopolistique. L'avenir de l'informatique AI ne consiste pas à réduire la demande, mais à s'adapter à un besoin croissant de puissance de calcul, garantissant que l'écosystème AI évolue en tandem avec ses avancées.
Mawari Lance la Ville Numérique de Divertissement Namba : Une Révolution de la Ville Intelligente cover
il y a un jour
Mawari Lance la Ville Numérique de Divertissement Namba : Une Révolution de la Ville Intelligente
Dans une collaboration révolutionnaire, Mawari s'est associé à Nankai Electric Railway Co., Ltd., Meta Osaka Co., Ltd. et e-stadium Co., Ltd. pour lancer la "Ville Numérique de Divertissement Namba" à Osaka, au Japon. Ce projet innovant vise à créer la première ville intelligente au monde qui intègre l'intelligence artificielle (IA), la réalité étendue (XR) et les réseaux d'infrastructure physique décentralisés (DePIN) à l'échelle de la ville. En tirant parti des forces uniques de chaque partenaire, l'initiative cherche à mélanger technologie avancée et vie urbaine quotidienne, favorisant une culture numérique dynamique et répondant aux défis sociaux par l'engagement communautaire. Le rôle central de Mawari consiste à déployer des dispositifs de calcul en périphérie et de rendu dans les propriétés de Nankai pour établir une infrastructure de streaming décentralisée. Cette configuration améliore l'expérience utilisateur en minimisant la latence et en permettant des interactions en temps réel avec des avatars IA réalistes. Ces avatars sont conçus pour aider dans diverses tâches, comme guider les touristes et faciliter la communication à travers les barrières linguistiques. Le projet représente une étape importante pour Mawari, car il vise à démocratiser les expériences immersives pilotées par l'IA, le PDG Luis Oscar Ramirez soulignant son potentiel pour une adoption massive et un impact social tangible. L'impact projeté de la Ville Numérique de Divertissement Namba va au-delà du divertissement, ciblant des secteurs tels que le tourisme et le travail. En fournissant des guides 3D multilingues et des expériences culturelles immersives, le projet vise à attirer davantage de visiteurs étrangers au Japon, stimulant ainsi les entreprises locales. De plus, il répond à la pénurie de main-d'œuvre au Japon en créant des opportunités de travail flexible et à distance grâce à des avatars pilotés par l'IA, promouvant l'inclusivité pour divers groupes. Cette initiative non seulement améliore l'accessibilité mais s'aligne également sur le besoin pressant du Japon pour des solutions de main-d'œuvre innovantes, marquant une étape transformative vers un avenir urbain numériquement intégré.
Acurast intègre le testnet Monad pour améliorer les capacités de la blockchain cover
il y a un jour
Acurast intègre le testnet Monad pour améliorer les capacités de la blockchain
Acurast a réalisé des avancées significatives en intégrant avec succès le testnet de Monad dans son réseau, ce qui améliore les capacités de la technologie blockchain en temps réel et à haute performance. Cette intégration permet à Monad d'être facilement accessible via Acurast, simplifiant ainsi le processus d'intégration pour les projets au sein de l'écosystème Monad. La collaboration permet aux projets d'utiliser le réseau de calcul décentralisé d'Acurast, qui offre un calcul hors chaîne efficace et rentable, renforçant ainsi l'écosystème Monad et offrant aux développeurs un moyen plus accessible d'exploiter des capacités de traitement puissantes. Monad se distingue par son infrastructure blockchain de pointe qui met l'accent sur l'exécution en temps réel et la scalabilité. L'intégration avec Acurast renforce les avantages fondamentaux de Monad, tels que des couches d'exécution optimisées qui améliorent considérablement le débit et l'efficacité des transactions. Acurast complète cela en fournissant un environnement de calcul décentralisé qui garantit l'intégrité et la sécurité des données tout en maintenant une réactivité en temps réel. Cette synergie permet aux développeurs d'innover sans sacrifier la vitesse ou la sécurité, ouvrant la voie à des applications avancées telles que des algorithmes de trading à haute fréquence et des solutions pilotées par l'IA. L'importance de cette intégration va au-delà des simples améliorations techniques ; elle représente un moment charnière pour les Réseaux d'Infrastructure Physique Décentralisée (DePIN). Alors que des secteurs comme le jeu et la DeFi ont gagné en traction, DePIN représente la prochaine frontière de la technologie décentralisée. En fusionnant le réseau de calcul d'Acurast avec Monad, le partenariat fait progresser non seulement les capacités de calcul, mais rend également l'infrastructure décentralisée plus accessible et robuste. Avec plus de 37 000 appareils intégrés et environ 170 millions de transactions sur le Testnet, Acurast est bien positionné pour répondre à la demande croissante d'applications réelles dans l'économie crypto, façonnant l'avenir du paysage DePIN.
Digital Entertainment City Namba : Une fusion de l'IA et de la XR à Osaka cover
il y a un jour
Digital Entertainment City Namba : Une fusion de l'IA et de la XR à Osaka
Digital Entertainment City Namba est un projet innovant de réalité étendue (XR) situé à Osaka, au Japon, qui intègre des guides d'intelligence artificielle (IA) à travers la ville. Cette initiative est soutenue par le réseau d'infrastructure physique décentralisée (DePIN) de Mawari, démontrant comment les DePIN peuvent répondre efficacement aux exigences computationnelles des technologies XR et IA. La collaboration implique des acteurs clés tels que Mawari, Meta Osaka, Nankai Electric Railway et le Namba e-stadium, mettant en avant le riche patrimoine culturel et technologique d'Osaka tout en repoussant les limites des expériences immersives. Le projet vise à améliorer les expériences touristiques en utilisant des guides virtuels IA capables d'effectuer diverses tâches, allant de la fourniture de conseils à l'offre de services clients. Ces personnages alimentés par l'IA sont conçus pour faciliter des interactions intuitives qui transcendent les barrières linguistiques, rendant le tourisme plus accessible. L'intégration de l'IA dans les expériences XR présente des défis uniques, notamment en raison de la puissance de calcul significative requise pour le rendu graphique et le traitement de l'IA. Les DePIN, comme ceux proposés par Mawari, promettent d'atténuer ces défis en tirant parti des réseaux GPU décentralisés pour réduire la latence et les exigences en bande passante. Alors que la demande de traitement IA augmente, la transition du rendu graphique aux capacités IA devient de plus en plus courante parmi les DePIN GPU. Notamment, Render Network a réussi à pivoter pour inclure le traitement IA aux côtés de son objectif initial sur les graphiques. Le projet Digital Entertainment City Namba illustre cette tendance, illustrant le potentiel des réseaux GPU décentralisés à soutenir la convergence des technologies XR et IA. De plus, selon la loi japonaise, les tokens DePIN sont classés comme des tokens utilitaires, ce qui aide à naviguer dans les défis réglementaires tout en favorisant l'innovation dans le secteur.
Débloquez une puissance de calcul sans précédent avec les GPU sur Aleph Cloud cover
il y a un jour
Débloquez une puissance de calcul sans précédent avec les GPU sur Aleph Cloud
Les GPU sont désormais intégrés dans [Aleph Cloud](https://aleph.im/), offrant un calcul haute performance pour les services d'IA, le rendu, les jeux, les agents IA, et plus encore. Nous sommes fiers d'annoncer une étape importante pour notre écosystème de cloud décentralisé avec la dernière intégration des GPU. La nouvelle application Aleph Cloud Core Channel Node introduit l'intégration des GPU, une fonctionnalité transformative qui positionne Aleph Cloud comme une solution puissante et plus compétitive pour les besoins de calcul haute performance. De plus, cette version apporte des capacités de gestion des comptes, des estimations de prix, et une multitude d'améliorations de performance, rendant Aleph Cloud encore plus robuste pour les développeurs et les entreprises. Avec le support des GPU, les utilisateurs peuvent désormais débloquer une puissance de calcul sans précédent pour des tâches telles que l'entraînement d'IA, le rendu, les jeux, et l'exécution d'agents IA. En tirant parti de l'infrastructure décentralisée, Aleph Cloud offre à la fois évolutivité et flexibilité à des prix très compétitifs, le tout grâce à la commodité d'un modèle Pay-as-You-Go (PAYG) utilisant des jetons ALEPH. # Révolutionner le cloud computing avec l'intégration des GPU L'intégration des GPU dans Aleph Cloud marque un pas en avant décisif. En permettant l'accès à des GPU de qualité consommateur et entreprise, les utilisateurs peuvent désormais sélectionner les ressources exactes dont ils ont besoin via notre interface intuitive sur console.twentysix.cloud. Cela leur permet de faire évoluer leurs charges de travail sans effort, qu'ils construisent des modèles d'apprentissage automatique, rendent des graphiques complexes, ou alimentent des plateformes de jeux basées sur le cloud. Chaque modèle de GPU est associé à des allocations spécifiques de vCPU, RAM, et disque, garantissant des performances optimales pour toute charge de travail. Par exemple, un RTX 4090, idéal pour les jeux ou les petits projets d'IA, coûtera environ 240 $ par mois*, tandis qu'un H100 de qualité entreprise, conçu pour des opérations intensives en données, coûte environ 1 920 $ par mois*. # Modèle Pay-As-You-Go amélioré Le modèle PAYG d'Aleph Cloud est conçu pour offrir flexibilité et transparence des coûts, un avantage crucial pour les entreprises et les développeurs. Avec les jetons ALEPH comme méthode de paiement exclusive, les utilisateurs peuvent profiter d'une expérience de paiement fluide à travers des blockchains comme Base et Avalanche. Cela garantit non seulement l'accessibilité mais aussi l'accessibilité à un public mondial. De plus, lorsqu'un utilisateur provisionne une machine virtuelle alimentée par GPU et initie un paiement, le système créera automatiquement deux flux de paiement. 80 % du paiement sera alloué directement à l'opérateur de nœud fournissant la puissance de calcul, tandis que 20 % contribueront au trésor d'Aleph Cloud. Ce modèle garantit une distribution équitable et durable des ressources, incitant les opérateurs de nœud tout en réinvestissant dans la croissance continue et le développement de l'écosystème Aleph Cloud. La structure tarifaire est simple mais très compétitive. Par exemple : * Les GPU de consommation comme le RTX 4090 sont tarifés à ~111 $ par mois, tandis qu'un RTX 4000 ADA coûte seulement ~55 $ par mois*. * Les GPU d'entreprise tels que l'A100 et le H100 sont destinés aux tâches intensives, tarifés à ~875 $ et ~583 $ par mois*, respectivement. Cette structure transparente permet aux utilisateurs de budgétiser avec précision, en adaptant leurs ressources à l'évolution de leurs projets. ![Modèle de tarification Aleph](https://pbs.twimg.com/media/GkKhUsAXwAE7jv9?format=png&name=large) Répartition des prix au 18/02/2025 # Nouvelles fonctionnalités pour une expérience utilisateur optimisée En plus de l'intégration des GPU, cette version introduit plusieurs fonctionnalités visant à améliorer la performance et l'utilisabilité. Parmi les points forts : * Mise en cache des agrégats : En mettant en œuvre la mise en cache pour les agrégats de propriétaires et les données de métriques, la plateforme offre désormais des temps de réponse plus rapides et une performance plus fluide. * Estimation des prix : Les utilisateurs peuvent désormais estimer le coût des messages exécutables avant de les envoyer, offrant une plus grande transparence et un meilleur contrôle. * Soldes pré-calculés : Cette fonctionnalité améliore considérablement la performance du système en réduisant la surcharge computationnelle. * Mises à jour du service de coût : Le service de coût utilise désormais des agrégats de prix pour des estimations plus précises. Ces améliorations rendent collectivement Aleph Cloud plus fiable et convivial, renforçant sa position en tant que solution leader pour le cloud computing décentralisé. ## Débloquer de nouveaux cas d'utilisation avec les GPU L'ajout de GPU étend les capacités d'Aleph Cloud pour servir une gamme diversifiée d'industries et d'applications : * IA et apprentissage automatique : Entraînez et déployez des modèles d'apprentissage automatique plus rapidement et plus efficacement. * Rendu : Créez des effets visuels époustouflants et des graphiques 3D de haute qualité avec des temps de rendu réduits. * Jeux : Offrez des expériences fluides et haute performance pour les plateformes de jeux cloud. * Agents IA : Alimentez des agents IA avancés avec des ressources de calcul décentralisées robustes. Ces cas d'utilisation montrent la polyvalence de l'offre GPU d'Aleph Cloud, en faisant un choix convaincant pour les développeurs, créateurs et entreprises. # Perspectives d'avenir La sortie de l'intégration des GPU et des fonctionnalités qui l'accompagnent représente un bond en avant significatif pour Aleph Cloud et sa communauté. Alors que nous continuons à améliorer notre plateforme, nous restons engagés à donner aux utilisateurs les outils dont ils ont besoin pour innover, évoluer et réussir dans un monde décentralisé. Pour explorer ces nouvelles fonctionnalités et commencer à tirer parti des GPU sur Aleph Cloud, visitez [console.twentysix.cloud](https://console.twentysix.cloud/computing/gpu-instance/) aujourd'hui. Pour plus de mises à jour, suivez-nous sur Twitter et rejoignez notre communauté Discord. Ensemble, redéfinissons l'avenir du cloud computing. *Ces prix sont convertis en USD à partir du prix actuel du jeton ALEPH. Ces données devraient évoluer dans le temps*
Zeeve Lance Cogitus : Un Changeur de Jeu pour le Déploiement de Testnets Avalanche L1 cover
il y a 2 jours
Zeeve Lance Cogitus : Un Changeur de Jeu pour le Déploiement de Testnets Avalanche L1
Le 20 février 2025, Zeeve, un fournisseur de solutions d'infrastructure blockchain de premier plan, a dévoilé Cogitus, une plateforme de déploiement en un clic pour les testnets Avalanche Layer 1 (L1). Cette plateforme innovante permet aux startups Web3 et aux développeurs de lancer des testnets publics entièrement fonctionnels pour seulement 50 $ pendant les six premiers mois. Traditionnellement, le déploiement d'un réseau L1 indépendant nécessitait des ressources importantes et une expertise DevOps étendue, mais Cogitus vise à simplifier ce processus, le rendant plus accessible aux développeurs de divers secteurs, y compris le jeu et la finance. Les L1 d'Avalanche ont gagné en popularité en raison de leurs environnements blockchain personnalisables et souverains. Ils offrent une gouvernance indépendante, des structures de validateurs et des modèles économiques tout en garantissant l'interopérabilité au sein de l'écosystème plus large d'Avalanche. Avec le lancement de Cogitus, les développeurs peuvent désormais déployer et expérimenter leurs propres testnets, ajustant les configurations en temps réel pour s'adapter à leurs cas d'utilisation spécifiques. Cette flexibilité positionne les L1 d'Avalanche comme une solution privilégiée pour les applications décentralisées (dApps) à haute performance et les startups Web3 à la recherche de solutions blockchain évolutives. Les principales caractéristiques de Cogitus incluent des testnets publics entièrement chargés avec des nœuds validateurs préconfigurés, des points de terminaison RPC et des explorateurs dédiés, tous prêts pour le déploiement. La plateforme automatise la configuration du réseau, éliminant les complexités techniques qui accompagnent souvent de tels déploiements. De plus, elle offre une surveillance proactive 24/7 et une redondance multi-cloud pour garantir une haute disponibilité. Avec un déploiement de mainnet à prix réduit disponible pour 995 $, Cogitus de Zeeve est prêt à révolutionner la manière dont les développeurs lancent et évoluent les L1 d'Avalanche, permettant une innovation rapide dans des secteurs tels que le jeu, la DeFi et les réseaux alimentés par l'IA.
Inscrivez-vous pour les dernières nouvelles et mises à jour de DePIN