Dernières Actualités DePIN IA

Voir les Projets de IA
Stratos s'associe à DeepSouth AI pour améliorer les applications Web3 cover
il y a 3 jours

Stratos s'associe à DeepSouth AI pour améliorer les applications Web3

Stratos a annoncé un partenariat passionnant avec DeepSouth AI, un acteur de premier plan dans le domaine de l'intelligence artificielle qui utilise la technologie de calcul neuromorphique. Cette collaboration vise à fusionner les capacités d'IA de pointe de DeepSouth AI avec les solutions d'infrastructure décentralisée de Stratos. L'objectif est de créer des applications décentralisées plus intelligentes et accessibles au sein de l'écosystème Web3, améliorant ainsi la fonctionnalité globale et l'expérience utilisateur de ces applications. DeepSouth AI est en train de développer une plateforme polyvalente équipée d'une suite complète d'outils d'IA puissants. Ces outils sont spécifiquement conçus pour aider les développeurs et les entreprises à mettre en œuvre des solutions d'IA avancées. En s'intégrant à l'infrastructure robuste et évolutive de Stratos, DeepSouth AI bénéficiera d'une solution de stockage décentralisée offrant fiabilité, sécurité et performance, essentielles pour soutenir des applications alimentées par l'IA à forte demande. Grâce à cette collaboration stratégique, Stratos est prêt à fournir l'infrastructure décentralisée nécessaire pour répondre aux besoins de données à fort volume de la plateforme de DeepSouth AI. Ce partenariat est sur le point d'ouvrir une nouvelle ère d'applications Web3, où l'intelligence artificielle et la technologie décentralisée peuvent travailler en harmonie, conduisant finalement à l'innovation et à l'accessibilité dans le paysage numérique.
Révolutionner l'efficacité de l'IA : L'impact de l'algorithme L-Mul cover
il y a 3 jours

Révolutionner l'efficacité de l'IA : L'impact de l'algorithme L-Mul

Le développement rapide de l'intelligence artificielle (IA) a conduit à des avancées significatives dans divers secteurs, mais cela a un coût environnemental élevé en raison de sa forte consommation d'énergie. Les modèles d'IA, en particulier ceux utilisant des réseaux de neurones, nécessitent une puissance de calcul substantielle, ce qui se traduit par une énorme consommation d'électricité. Par exemple, faire fonctionner ChatGPT au début de 2023 a consommé environ 564 MWh d'électricité par jour, équivalent aux besoins énergétiques d'environ 18 000 foyers américains. Cette demande énergétique est principalement alimentée par des opérations complexes en virgule flottante essentielles aux calculs des réseaux de neurones, rendant la recherche de solutions écoénergétiques critique à mesure que les systèmes d'IA deviennent plus complexes. Entrez l'algorithme L-Mul (Multiplication à Complexité Linéaire), un développement révolutionnaire qui promet de réduire considérablement le fardeau énergétique associé aux calculs d'IA. L-Mul fonctionne en approximant les multiplications en virgule flottante par des additions d'entiers plus simples, qui peuvent être intégrées dans les modèles d'IA existants sans nécessiter de réglage fin. Cette approche innovante a démontré des économies d'énergie remarquables, atteignant jusqu'à 95 % de réduction de la consommation d'énergie pour les multiplications de tenseurs élément par élément et 80 % pour les calculs de produit scalaire. Il est important de noter que cette efficacité énergétique ne compromet pas l'exactitude des modèles d'IA, marquant une avancée significative dans la quête d'une IA durable. Les implications de L-Mul vont au-delà des simples économies d'énergie ; il améliore les performances des modèles d'IA dans diverses applications, y compris les modèles de transformateurs et les grands modèles de langage (LLM). Dans des benchmarks tels que GSM8k et les tâches de questions visuelles, L-Mul a surpassé les formats en virgule flottante traditionnels comme FP8, montrant son potentiel à gérer efficacement des calculs complexes. Alors que la demande pour l'IA continue d'augmenter, L-Mul se distingue comme une solution clé qui non seulement aborde la crise énergétique associée à l'IA, mais ouvre également la voie à un avenir plus durable dans le développement technologique.
Intégration d'OpenAI avec Solana en utilisant le protocole Lit cover
il y a 3 jours

Intégration d'OpenAI avec Solana en utilisant le protocole Lit

Dans une intégration révolutionnaire, le protocole Lit a démontré comment combiner en toute sécurité les capacités d'OpenAI et de la blockchain Solana. En utilisant des clés enveloppées sur Solana, les développeurs peuvent signer les réponses générées par l'API OpenAI dans le cadre d'une action Lit. Cette intégration ouvre la voie à une myriade d'applications innovantes, en particulier dans le domaine des agents autonomes alimentés par l'IA. Ces agents peuvent fonctionner sur la blockchain sans exposer de clés API sensibles, grâce aux paires de clés programmables (PKP) basées sur des seuils et aux environnements d'exécution de confiance (TEE) de Lit. Cela garantit que toutes les opérations sensibles restent protégées, permettant aux agents IA d'interagir à la fois avec la blockchain et les services web traditionnels tout en maintenant des identités décentralisées. L'intégration souligne également l'importance du calcul privé et du traitement des données. En chiffrant les données et en exécutant des invites de modèles de langage de grande taille (LLM) au sein du TEE de Lit, les développeurs peuvent s'assurer que des informations sensibles, telles que des dossiers médicaux ou des données financières, restent sécurisées tout au long du processus. Le TEE fournit une isolation au niveau matériel, ce qui signifie même que les opérateurs de nœuds ne peuvent pas accéder aux données déchiffrées. Ce chiffrement de bout en bout permet le traitement sécurisé d'informations privées, garantissant que tous les calculs se déroulent dans un environnement sécurisé avant que les résultats ne soient de nouveau chiffrés et renvoyés. De plus, l'intégration facilite la génération de preuves cryptographiques pour l'entraînement et l'inférence. En restreignant les autorisations de signature PKP à des hachages CID IPFS spécifiques, les développeurs peuvent garantir l'authenticité du contenu généré par le LLM. Ce système de preuve est particulièrement bénéfique pour les pistes de vérification et les exigences de conformité, car il permet aux tiers de vérifier l'authenticité du contenu produit par le LLM. Dans l'ensemble, cette intégration met en avant le potentiel de la combinaison de l'IA avec la technologie blockchain, ouvrant la voie à des applications plus sécurisées et efficaces à l'avenir.
io.net et NovaNet s'associent pour améliorer la vérification des GPU avec zkGPU-ID cover
il y a 4 jours

io.net et NovaNet s'associent pour améliorer la vérification des GPU avec zkGPU-ID

Dans un mouvement significatif pour améliorer la sécurité et la fiabilité des réseaux de calcul décentralisés, io.net, un réseau d'infrastructure physique décentralisé (DePIN) spécialisé dans les clusters GPU, a formé un partenariat avec NovaNet, un leader dans les preuves à connaissance nulle (ZKP). Cette collaboration vise à développer une solution révolutionnaire connue sous le nom d'identification GPU à connaissance nulle (zkGPU-ID), qui fournira des garanties cryptographiques concernant l'authenticité et les performances des ressources GPU. En s'appuyant sur la technologie ZKP avancée de NovaNet, io.net sera en mesure de valider que les GPU utilisés au sein de sa plateforme décentralisée non seulement répondent mais dépassent potentiellement leurs spécifications annoncées, renforçant ainsi la confiance des utilisateurs et la fiabilité des ressources. Tausif Ahmed, le VP du développement commercial chez io.net, a souligné l'importance de ce partenariat, affirmant que l'optimisation de la coordination et de la vérification à travers un vaste réseau de fournisseurs de GPU distribués est cruciale pour construire un réseau de calcul décentralisé sans permission et prêt pour l'entreprise. L'intégration du zkGPU-ID de NovaNet permettra à io.net de valider et de tester en continu ses ressources GPU à l'échelle mondiale, garantissant que les clients peuvent louer des GPU fiables qui répondent à leurs besoins spécifiques. Cette initiative représente un avancement significatif dans l'infrastructure de calcul décentralisée, visant à atténuer les préoccupations concernant l'authenticité et les performances des ressources. De plus, le protocole zkGPU-ID utilise la technologie zkVM (machine virtuelle à connaissance nulle) de NovaNet, qui joue un rôle essentiel dans la génération et la vérification des preuves cryptographiques des spécifications GPU à des coûts réduits. Wyatt Benno, co-fondateur technique de NovaNet, a souligné la nécessité que les ZKP fonctionnent à travers divers appareils et contextes pour la confidentialité et la vérifiabilité locale. Le zkEngine de NovaNet teste rigoureusement et identifie les GPU au sein de la plateforme io.net, créant un ZKP qui garantit l'intégrité des GPU. Ce partenariat établit une nouvelle norme de transparence, de fiabilité et de sécurité dans les réseaux de calcul GPU décentralisés, marquant une étape décisive dans l'industrie.
Dogecoin maintient sa liquidité malgré les changements du marché, Bittensor fait face à des défis cover
il y a 5 jours

Dogecoin maintient sa liquidité malgré les changements du marché, Bittensor fait face à des défis

Dans le paysage actuel des cryptomonnaies, Dogecoin (DOGE) a démontré une résilience remarquable en maintenant une liquidité stable malgré les fluctuations du marché. Suite aux récentes élections américaines, il y a eu une augmentation significative de l'activité des grands détenteurs, ou baleines, avec des flux nets de baleines augmentant de près de 957 %. Cette montée a entraîné une explosion des transactions, passant d'environ 45 millions à plus de 430 millions de DOGE en seulement un jour. Bien que le prix de Dogecoin ait connu une brève montée d'environ 10 % pendant la période électorale, il a ensuite chuté d'environ 6 %, se stabilisant à un niveau légèrement inférieur. Néanmoins, son volume de transactions reste robuste à plus de 3,8 milliards de dollars, avec une capitalisation boursière proche de 29 milliards de dollars, soulignant sa forte présence sur le marché et l'intérêt continu des grands investisseurs. En revanche, Bittensor (TAO) fait face à des défis alors qu'il connaît une baisse de liquidité, suscitant des inquiétudes parmi ses investisseurs. Avec une capitalisation boursière d'environ 3,7 milliards de dollars et un volume de transactions quotidien d'environ 165 millions de dollars, la réduction de l'activité de trading indique un changement dans l'engagement des investisseurs. Actuellement, il y a environ 7,4 millions de jetons TAO en circulation sur un approvisionnement maximum de 21 millions. La chute de la liquidité pourrait entraîner une volatilité accrue des prix, rendant crucial pour les investisseurs de surveiller ces tendances de près. Une poursuite de la baisse pourrait affecter la valeur du jeton et son attrait global pour les investisseurs potentiels. En revanche, IntelMarkets (INTL) émerge comme une alternative prometteuse dans l'arène du trading crypto, avec une plateforme de trading unique alimentée par l'IA, construite sur une blockchain moderne. Actuellement au stade 5 de sa prévente, IntelMarkets a levé environ 2 millions de dollars, avec près de 10 millions de jetons vendus à un prix de 0,045 Tether, qui devrait augmenter à environ 0,054. Les bots auto-apprenants de la plateforme traitent plus de 100 000 points de données, permettant aux traders de prendre des décisions éclairées basées sur des données en temps réel. Avec son approvisionnement limité en jetons et sa technologie avancée, IntelMarkets se positionne comme une plateforme stratégique pour les investisseurs à la recherche d'une croissance constante et de stabilité dans un marché volatile.
Stratos s'associe à MetaTrust Labs pour améliorer la sécurité du Web3 cover
il y a 5 jours

Stratos s'associe à MetaTrust Labs pour améliorer la sécurité du Web3

Dans un développement significatif pour l'écosystème Web3, Stratos a annoncé un partenariat avec MetaTrust Labs, un fournisseur de premier plan d'outils de sécurité AI pour le Web3 et de services d'audit de code. Cette collaboration vise à renforcer la sécurité et la résilience des applications Web3 en fusionnant des mesures de sécurité avancées alimentées par l'IA avec les solutions de stockage décentralisées de Stratos. Le partenariat vise à créer une infrastructure robuste qui non seulement protège les données, mais garantit également la fiabilité et l'efficacité des applications Web3, un aspect crucial pour les développeurs et les utilisateurs. MetaTrust Labs, qui a été incubé à l'Université technologique de Nanyang à Singapour, est reconnu pour son approche innovante de la sécurité Web3. L'entreprise se spécialise dans le développement de solutions AI avancées conçues pour aider les développeurs et les parties prenantes à protéger leurs applications et contrats intelligents. Cet accent sur la sécurité est essentiel dans le paysage numérique en évolution rapide, où les vulnérabilités peuvent entraîner des risques significatifs. En tirant parti des technologies AI, MetaTrust Labs vise à créer des écosystèmes numériques plus sûrs et plus efficaces capables de résister aux menaces potentielles. Stratos, connu pour son engagement envers des solutions d'infrastructure décentralisées, joue un rôle clé dans ce partenariat. L'entreprise fournit un cadre de stockage décentralisé qui prend en charge une haute disponibilité, une scalabilité et une résilience pour les plateformes Web3. En intégrant ses solutions de stockage décentralisées avec les outils de sécurité alimentés par l'IA de MetaTrust Labs, le partenariat promet de fournir un niveau de protection sans précédent pour le code et les données au sein des applications Web3. Cette collaboration renforce non seulement la confiance en matière de sécurité pour les développeurs, mais contribue également à l'intégrité globale de l'espace Web3, ouvrant la voie à un avenir numérique plus sûr.
Falcon Mamba 7B : Une avancée dans les modèles d'IA sans attention cover
il y a 5 jours

Falcon Mamba 7B : Une avancée dans les modèles d'IA sans attention

L'évolution rapide de l'intelligence artificielle (IA) est significativement influencée par l'émergence de modèles sans attention, le Falcon Mamba 7B étant un exemple notable. Développé par le Technology Innovation Institute (TII) à Abou Dhabi, ce modèle révolutionnaire s'écarte des architectures traditionnelles basées sur les Transformers qui reposent fortement sur les mécanismes d'attention. Au lieu de cela, le Falcon Mamba 7B utilise des modèles d'espace d'état (SSM), qui offrent une inférence plus rapide et plus efficace en mémoire, répondant aux défis computationnels associés aux tâches à long contexte. En s'entraînant sur un vaste ensemble de données de 5,5 trillions de tokens, le Falcon Mamba 7B se positionne comme une alternative compétitive aux modèles existants tels que Gemma de Google et Phi de Microsoft. L'architecture du Falcon Mamba 7B est conçue pour maintenir un coût d'inférence constant, quelle que soit la longueur de l'entrée, résolvant ainsi le problème de mise à l'échelle quadratique qui afflige les modèles Transformers. Cette capacité unique lui permet d'exceller dans des applications nécessitant un traitement à long contexte, telles que la résumé de documents et l'automatisation du service client. Bien qu'il ait démontré des performances supérieures dans divers benchmarks de traitement du langage naturel, il fait encore face à des limitations dans les tâches qui exigent une compréhension contextuelle complexe. Néanmoins, son efficacité mémoire et sa rapidité en font un choix convaincant pour les organisations cherchant à optimiser leurs solutions d'IA. Les implications du Falcon Mamba 7B vont au-delà des simples métriques de performance. Son support pour la quantification permet un déploiement efficace sur les GPU et les CPU, renforçant encore sa polyvalence. À mesure que le paysage de l'IA évolue, le succès du Falcon Mamba 7B suggère que les modèles sans attention pourraient bientôt devenir la norme pour de nombreuses applications. Avec des recherches et un développement continus, ces modèles pourraient potentiellement surpasser les architectures traditionnelles en termes de vitesse et de précision, ouvrant la voie à des applications innovantes dans divers secteurs.
Connecter les Constructeurs : Événements à Bangkok Axés sur les Données, l'IA et la Crypto cover
il y a 6 jours

Connecter les Constructeurs : Événements à Bangkok Axés sur les Données, l'IA et la Crypto

Dans une dynamique vibrante vers l'innovation à l'intersection des données, de l'IA et des cryptomonnaies, un groupe de constructeurs se prépare à s'engager avec la communauté à Bangkok ce mois-ci. Ils seront présents à plusieurs événements clés, notamment le Filecoin FIL Dev Summit le 11 novembre, Devcon du 12 au 15 novembre, et la Journée DePIN de Fluence le 15 novembre. Ces rassemblements sont conçus pour les constructeurs, les opérateurs et les nouveaux venus, offrant une plateforme pour le réseautage et la collaboration dans le paysage Web3 en pleine évolution. L'objectif de ces événements est de favoriser les connexions entre ceux qui s'intéressent aux technologies décentralisées. Les participants peuvent s'attendre à participer à des discussions sur divers sujets tels que le stockage décentralisé, les données vérifiables et la gestion des identités. Les organisateurs sont particulièrement désireux de promouvoir leur groupe Telegram privé, Proof of Data, qui sert d'espace collaboratif pour les individus confrontés à des défis au sein de l'écosystème des données Web3. Cette initiative vise à créer une communauté où les participants peuvent partager des idées et des solutions liées à la disponibilité des données et aux données synthétiques. Alors que l'écosystème Web3 continue de croître, des événements comme ceux-ci sont cruciaux pour établir des relations et partager des connaissances. En rassemblant des parties prenantes diverses, des développeurs expérimentés aux apprenants curieux, les rassemblements à Bangkok promettent d'être un creuset d'idées et d'innovations. Les participants sont encouragés à se connecter avec l'équipe lors de la Journée DePIN pour plus d'informations et à rejoindre la conversation en cours dans la communauté Proof of Data, garantissant que chacun a la possibilité de contribuer à l'avenir des technologies décentralisées.
Le Verida DAO lance un programme de subventions privées en IA cover
il y a 8 jours

Le Verida DAO lance un programme de subventions privées en IA

Le Verida DAO a officiellement lancé son programme inaugural de subventions privées en IA Verida, visant à promouvoir l'innovation dans les domaines de l'IA privée et du stockage décentralisé. Cette initiative est conçue pour soutenir des projets révolutionnaires qui exploitent le Verida Private Data Bridge, qui est sur le point d'élargir ses capacités en intégrant des connecteurs de données supplémentaires. Ce faisant, le programme permettra aux développeurs utilisant l'API Verida d'accéder à un éventail plus large de données utilisateur, conduisant finalement à la création d'agents et d'applications IA plus sophistiqués. Les subventions seront disponibles du 15 novembre au 15 février, avec un montant total de subventions évalué à 30 000 $ en tokens VDA. Le programme propose plusieurs niveaux de financement, s'adaptant à différents niveaux de complexité des projets. Le niveau 1 offre 500 $ pour l'extension de connecteurs existants, tandis que le niveau 2 fournit 1 000 $ pour des connecteurs de base. Pour des projets plus avancés, le niveau 3 attribue 2 000 $ pour des connecteurs de haute complexité, et le niveau 4 accorde 3 500 $ pour des connecteurs avancés. Cette approche par niveaux encourage une large gamme de solutions innovantes au sein de l'écosystème de stockage décentralisé. Les participants intéressés peuvent enregistrer leur intérêt en remplissant un formulaire désigné, qui sera examiné par l'équipe du DAO. Les soumissions réussies mèneront à des discussions ultérieures sur les projets proposés. Le Verida DAO est enthousiaste quant aux contributions potentielles à l'avenir de l'IA privée et se réjouit de voir des solutions innovantes qui améliorent le paysage du stockage décentralisé. Cette initiative marque une étape significative vers la réalisation de la vision à long terme de Verida de déverrouiller des données pour divers cas d'utilisation de l'IA privée.
CUDOS s'associe à ParallelAI pour améliorer le calcul AI décentralisé cover
il y a 8 jours

CUDOS s'associe à ParallelAI pour améliorer le calcul AI décentralisé

CUDOS, un acteur majeur du cloud computing durable et décentralisé, a récemment conclu un partenariat stratégique avec ParallelAI, un pionnier des solutions de traitement parallèle adaptées à l'intelligence artificielle. Cette collaboration vise à fusionner les GPU Ada Lovelace et Ampere haute performance de CUDOS avec le middleware Parahub GPU de ParallelAI, créant ainsi un environnement de calcul AI décentralisé promettant une efficacité et une évolutivité exceptionnelles. En s'appuyant sur l'infrastructure décentralisée de CUDOS, l'écosystème $PAI de ParallelAI aura accès à des ressources GPU robustes et rentables, permettant d'accélérer les charges de travail AI et d'optimiser l'utilisation des GPU tout en minimisant les coûts opérationnels. Le moment de ce partenariat est particulièrement significatif alors que CUDOS continue de capitaliser sur sa récente fusion de jetons avec les membres de l'ASI Alliance, qui incluent des entités notables telles que Fetch.ai, SingularityNET et Ocean Protocol. Cet alignement stratégique renforce davantage la position de CUDOS au sein d'un réseau AI décentralisé reconnu mondialement. Les lancements à venir de ParallelAI, tels que le langage de programmation Parilix et le transformateur de code automatisé PACT, devraient compléter ce partenariat, simplifiant la programmation GPU et améliorant l'accessibilité du traitement parallèle pour les développeurs, favorisant ainsi l'innovation dans le secteur de l'IA. La collaboration entre CUDOS et ParallelAI signifie un engagement mutuel à promouvoir des solutions de calcul AI durables et accessibles. À mesure que l'intégration de leurs technologies progresse, ce partenariat est prêt à inaugurer une nouvelle ère de calcul décentralisé haute performance, redéfinissant finalement le paysage de l'intelligence artificielle pour les développeurs et les entreprises. Avec la capacité de ParallelAI à améliorer l'efficacité de calcul en réduisant considérablement les temps de calcul, la synergie entre ces deux entreprises devrait permettre une large gamme de projets alimentés par l'IA et d'analyses de données à grande échelle.