Aethir fait des progrès significatifs dans l'infrastructure décentralisée et l'IA

dimanche, juin 2, 2024 12:10 PM
66

Aethir progresse dans l’infrastructure physique décentralisée avec l’IA et l’apprentissage automatique, annonçant un partenariat avec GAM3S.GG pour une expérience de jeu améliorée. Aethir Edge a distribué plus de 66 000 nœuds Checker, utilisant la puissance GPU inutilisée pour gagner des jetons $ATH. L’entreprise vise à résoudre la pénurie mondiale de GPU en agrégeant et redistribuant des ressources, augmentant potentiellement la disponibilité mondiale de calcul GPU. Aethir a également organisé le ‘AI Dinner Salon’ lors de Consensus 2024, discutant de l’avenir de l’IA décentralisée.

Related News

W2140 EXPO met en avant les innovations de Titan Network et Pnuts.AI cover
il y a 3 jours
W2140 EXPO met en avant les innovations de Titan Network et Pnuts.AI
Le 12 novembre 2024, le W2140 EXPO, une conférence mondiale de premier plan sur l'IA et le Web3, a été inauguré à Bangkok. Co-organisé par l'Association des affaires asiatiques de Thaïlande et le gouvernement thaïlandais, l'événement a attiré la participation de plus de 1 000 organisations et plus de 200 000 participants, marquant ainsi la plus grande conférence de ce type. Au cours de l'événement, des membres de l'équipe dirigeante de Titan Network ont engagé des discussions significatives avec le personnel des Nations Unies et le Dr. James Ong, un éminent chercheur et fondateur de l'Institut international d'intelligence artificielle (AIII). Le discours d'ouverture du Dr. Ong, intitulé "IA et Web pour l'humanité du plus grand nombre", a souligné l'importance des technologies décentralisées dans le paysage moderne. Le Dr. Ong a mis en avant Titan Network et son partenaire écosystémique, Pnuts.AI, comme des modèles exemplaires au sein des cadres AIDePIN et AIDeHIN. Il a loué Titan pour avoir développé un réseau d'infrastructure physique décentralisé (DePIN) qui exploite la blockchain pour utiliser des ressources inactives. Cette innovation offre une alternative décentralisée, sécurisée et transparente aux services cloud traditionnels, permettant potentiellement d'économiser jusqu'à 96 % des coûts. De plus, il a félicité Pnuts.AI pour être l'outil de traduction en temps réel le plus puissant disponible, conçu pour briser les barrières linguistiques en utilisant les technologies IA et Web3, fournissant des traductions rapides et précises de la parole à la parole dans plus de 200 langues. En outre, le Dr. Ong a discuté du potentiel futur de Pnuts.AI en tant que projet Web3 remarquable, envisageant une intégration transparente de l'IA, du Web3 et du DeHIN. Dans cette approche, les meilleurs experts en langues humaines collaboreront avec des systèmes d'IA pour améliorer considérablement la précision des traductions. Ces experts fourniront également des matériaux de formation numérique étendus pour améliorer les modèles de traduction, tandis que les mécanismes Web3 inciteront les efforts coopératifs humain-IA, favorisant un écosystème d'applications AI-Web3 robuste. Cette intégration promet de révolutionner notre approche de la traduction linguistique et de la communication dans un monde globalisé.
Révolutionner l'efficacité de l'IA : L'impact de l'algorithme L-Mul cover
il y a 5 jours
Révolutionner l'efficacité de l'IA : L'impact de l'algorithme L-Mul
Le développement rapide de l'intelligence artificielle (IA) a conduit à des avancées significatives dans divers secteurs, mais cela a un coût environnemental élevé en raison de sa forte consommation d'énergie. Les modèles d'IA, en particulier ceux utilisant des réseaux de neurones, nécessitent une puissance de calcul substantielle, ce qui se traduit par une énorme consommation d'électricité. Par exemple, faire fonctionner ChatGPT au début de 2023 a consommé environ 564 MWh d'électricité par jour, équivalent aux besoins énergétiques d'environ 18 000 foyers américains. Cette demande énergétique est principalement alimentée par des opérations complexes en virgule flottante essentielles aux calculs des réseaux de neurones, rendant la recherche de solutions écoénergétiques critique à mesure que les systèmes d'IA deviennent plus complexes. Entrez l'algorithme L-Mul (Multiplication à Complexité Linéaire), un développement révolutionnaire qui promet de réduire considérablement le fardeau énergétique associé aux calculs d'IA. L-Mul fonctionne en approximant les multiplications en virgule flottante par des additions d'entiers plus simples, qui peuvent être intégrées dans les modèles d'IA existants sans nécessiter de réglage fin. Cette approche innovante a démontré des économies d'énergie remarquables, atteignant jusqu'à 95 % de réduction de la consommation d'énergie pour les multiplications de tenseurs élément par élément et 80 % pour les calculs de produit scalaire. Il est important de noter que cette efficacité énergétique ne compromet pas l'exactitude des modèles d'IA, marquant une avancée significative dans la quête d'une IA durable. Les implications de L-Mul vont au-delà des simples économies d'énergie ; il améliore les performances des modèles d'IA dans diverses applications, y compris les modèles de transformateurs et les grands modèles de langage (LLM). Dans des benchmarks tels que GSM8k et les tâches de questions visuelles, L-Mul a surpassé les formats en virgule flottante traditionnels comme FP8, montrant son potentiel à gérer efficacement des calculs complexes. Alors que la demande pour l'IA continue d'augmenter, L-Mul se distingue comme une solution clé qui non seulement aborde la crise énergétique associée à l'IA, mais ouvre également la voie à un avenir plus durable dans le développement technologique.
Intégration d'OpenAI avec Solana en utilisant le protocole Lit cover
il y a 5 jours
Intégration d'OpenAI avec Solana en utilisant le protocole Lit
Dans une intégration révolutionnaire, le protocole Lit a démontré comment combiner en toute sécurité les capacités d'OpenAI et de la blockchain Solana. En utilisant des clés enveloppées sur Solana, les développeurs peuvent signer les réponses générées par l'API OpenAI dans le cadre d'une action Lit. Cette intégration ouvre la voie à une myriade d'applications innovantes, en particulier dans le domaine des agents autonomes alimentés par l'IA. Ces agents peuvent fonctionner sur la blockchain sans exposer de clés API sensibles, grâce aux paires de clés programmables (PKP) basées sur des seuils et aux environnements d'exécution de confiance (TEE) de Lit. Cela garantit que toutes les opérations sensibles restent protégées, permettant aux agents IA d'interagir à la fois avec la blockchain et les services web traditionnels tout en maintenant des identités décentralisées. L'intégration souligne également l'importance du calcul privé et du traitement des données. En chiffrant les données et en exécutant des invites de modèles de langage de grande taille (LLM) au sein du TEE de Lit, les développeurs peuvent s'assurer que des informations sensibles, telles que des dossiers médicaux ou des données financières, restent sécurisées tout au long du processus. Le TEE fournit une isolation au niveau matériel, ce qui signifie même que les opérateurs de nœuds ne peuvent pas accéder aux données déchiffrées. Ce chiffrement de bout en bout permet le traitement sécurisé d'informations privées, garantissant que tous les calculs se déroulent dans un environnement sécurisé avant que les résultats ne soient de nouveau chiffrés et renvoyés. De plus, l'intégration facilite la génération de preuves cryptographiques pour l'entraînement et l'inférence. En restreignant les autorisations de signature PKP à des hachages CID IPFS spécifiques, les développeurs peuvent garantir l'authenticité du contenu généré par le LLM. Ce système de preuve est particulièrement bénéfique pour les pistes de vérification et les exigences de conformité, car il permet aux tiers de vérifier l'authenticité du contenu produit par le LLM. Dans l'ensemble, cette intégration met en avant le potentiel de la combinaison de l'IA avec la technologie blockchain, ouvrant la voie à des applications plus sécurisées et efficaces à l'avenir.
Stratos s'associe à DeepSouth AI pour améliorer les applications Web3 cover
il y a 5 jours
Stratos s'associe à DeepSouth AI pour améliorer les applications Web3
Stratos a annoncé un partenariat passionnant avec DeepSouth AI, un acteur de premier plan dans le domaine de l'intelligence artificielle qui utilise la technologie de calcul neuromorphique. Cette collaboration vise à fusionner les capacités d'IA de pointe de DeepSouth AI avec les solutions d'infrastructure décentralisée de Stratos. L'objectif est de créer des applications décentralisées plus intelligentes et accessibles au sein de l'écosystème Web3, améliorant ainsi la fonctionnalité globale et l'expérience utilisateur de ces applications. DeepSouth AI est en train de développer une plateforme polyvalente équipée d'une suite complète d'outils d'IA puissants. Ces outils sont spécifiquement conçus pour aider les développeurs et les entreprises à mettre en œuvre des solutions d'IA avancées. En s'intégrant à l'infrastructure robuste et évolutive de Stratos, DeepSouth AI bénéficiera d'une solution de stockage décentralisée offrant fiabilité, sécurité et performance, essentielles pour soutenir des applications alimentées par l'IA à forte demande. Grâce à cette collaboration stratégique, Stratos est prêt à fournir l'infrastructure décentralisée nécessaire pour répondre aux besoins de données à fort volume de la plateforme de DeepSouth AI. Ce partenariat est sur le point d'ouvrir une nouvelle ère d'applications Web3, où l'intelligence artificielle et la technologie décentralisée peuvent travailler en harmonie, conduisant finalement à l'innovation et à l'accessibilité dans le paysage numérique.
io.net et NovaNet s'associent pour améliorer la vérification des GPU avec zkGPU-ID cover
il y a 6 jours
io.net et NovaNet s'associent pour améliorer la vérification des GPU avec zkGPU-ID
Dans un mouvement significatif pour améliorer la sécurité et la fiabilité des réseaux de calcul décentralisés, io.net, un réseau d'infrastructure physique décentralisé (DePIN) spécialisé dans les clusters GPU, a formé un partenariat avec NovaNet, un leader dans les preuves à connaissance nulle (ZKP). Cette collaboration vise à développer une solution révolutionnaire connue sous le nom d'identification GPU à connaissance nulle (zkGPU-ID), qui fournira des garanties cryptographiques concernant l'authenticité et les performances des ressources GPU. En s'appuyant sur la technologie ZKP avancée de NovaNet, io.net sera en mesure de valider que les GPU utilisés au sein de sa plateforme décentralisée non seulement répondent mais dépassent potentiellement leurs spécifications annoncées, renforçant ainsi la confiance des utilisateurs et la fiabilité des ressources. Tausif Ahmed, le VP du développement commercial chez io.net, a souligné l'importance de ce partenariat, affirmant que l'optimisation de la coordination et de la vérification à travers un vaste réseau de fournisseurs de GPU distribués est cruciale pour construire un réseau de calcul décentralisé sans permission et prêt pour l'entreprise. L'intégration du zkGPU-ID de NovaNet permettra à io.net de valider et de tester en continu ses ressources GPU à l'échelle mondiale, garantissant que les clients peuvent louer des GPU fiables qui répondent à leurs besoins spécifiques. Cette initiative représente un avancement significatif dans l'infrastructure de calcul décentralisée, visant à atténuer les préoccupations concernant l'authenticité et les performances des ressources. De plus, le protocole zkGPU-ID utilise la technologie zkVM (machine virtuelle à connaissance nulle) de NovaNet, qui joue un rôle essentiel dans la génération et la vérification des preuves cryptographiques des spécifications GPU à des coûts réduits. Wyatt Benno, co-fondateur technique de NovaNet, a souligné la nécessité que les ZKP fonctionnent à travers divers appareils et contextes pour la confidentialité et la vérifiabilité locale. Le zkEngine de NovaNet teste rigoureusement et identifie les GPU au sein de la plateforme io.net, créant un ZKP qui garantit l'intégrité des GPU. Ce partenariat établit une nouvelle norme de transparence, de fiabilité et de sécurité dans les réseaux de calcul GPU décentralisés, marquant une étape décisive dans l'industrie.
Falcon Mamba 7B : Une avancée dans les modèles d'IA sans attention cover
il y a 7 jours
Falcon Mamba 7B : Une avancée dans les modèles d'IA sans attention
L'évolution rapide de l'intelligence artificielle (IA) est significativement influencée par l'émergence de modèles sans attention, le Falcon Mamba 7B étant un exemple notable. Développé par le Technology Innovation Institute (TII) à Abou Dhabi, ce modèle révolutionnaire s'écarte des architectures traditionnelles basées sur les Transformers qui reposent fortement sur les mécanismes d'attention. Au lieu de cela, le Falcon Mamba 7B utilise des modèles d'espace d'état (SSM), qui offrent une inférence plus rapide et plus efficace en mémoire, répondant aux défis computationnels associés aux tâches à long contexte. En s'entraînant sur un vaste ensemble de données de 5,5 trillions de tokens, le Falcon Mamba 7B se positionne comme une alternative compétitive aux modèles existants tels que Gemma de Google et Phi de Microsoft. L'architecture du Falcon Mamba 7B est conçue pour maintenir un coût d'inférence constant, quelle que soit la longueur de l'entrée, résolvant ainsi le problème de mise à l'échelle quadratique qui afflige les modèles Transformers. Cette capacité unique lui permet d'exceller dans des applications nécessitant un traitement à long contexte, telles que la résumé de documents et l'automatisation du service client. Bien qu'il ait démontré des performances supérieures dans divers benchmarks de traitement du langage naturel, il fait encore face à des limitations dans les tâches qui exigent une compréhension contextuelle complexe. Néanmoins, son efficacité mémoire et sa rapidité en font un choix convaincant pour les organisations cherchant à optimiser leurs solutions d'IA. Les implications du Falcon Mamba 7B vont au-delà des simples métriques de performance. Son support pour la quantification permet un déploiement efficace sur les GPU et les CPU, renforçant encore sa polyvalence. À mesure que le paysage de l'IA évolue, le succès du Falcon Mamba 7B suggère que les modèles sans attention pourraient bientôt devenir la norme pour de nombreuses applications. Avec des recherches et un développement continus, ces modèles pourraient potentiellement surpasser les architectures traditionnelles en termes de vitesse et de précision, ouvrant la voie à des applications innovantes dans divers secteurs.