Dernières Actualités DePIN IA

Voir les Projets de IA
CreatorBid s'associe à io.net pour améliorer le développement de l'IA grâce à un réseau GPU décentralisé cover
il y a 6 mois

CreatorBid s'associe à io.net pour améliorer le développement de l'IA grâce à un réseau GPU décentralisé

Dans un développement significatif pour l'économie des créateurs d'IA, io.net a annoncé un partenariat stratégique avec CreatorBid, une plateforme spécialisée dans les outils alimentés par l'IA pour les créateurs et les marques. Cette collaboration permettra à CreatorBid d'utiliser le réseau GPU décentralisé d'io.net, améliorant ainsi l'évolutivité et l'efficacité de ses modèles d'images et de vidéos. En tirant parti de cette infrastructure décentralisée, CreatorBid vise à optimiser l'utilisation des ressources tout en minimisant les coûts, rendant l'informatique haute performance plus accessible aux entreprises engagées dans la technologie de l'IA. Tausif Ahmed, VP du développement commercial chez io.net, a souligné les avantages de ce partenariat, affirmant qu'il permet à CreatorBid d'exploiter leur réseau GPU décentralisé pour des solutions IA avancées. Le PDG de CreatorBid, Phil Kothe, a fait écho à ce sentiment, soulignant le potentiel des ressources GPU évolutives pour autonomiser les influenceurs et agents IA. Ce partenariat est sur le point de révolutionner la création de contenu, car il permet aux créateurs d'engager des audiences et de produire des formats de contenu divers de manière autonome, ouvrant la voie à une nouvelle ère d'entrepreneuriat numérique. CreatorBid est à l'avant-garde de l'économie des créateurs d'IA, fournissant des outils qui permettent aux créateurs de monétiser leur contenu et de construire des communautés dynamiques autour des agents IA. Ces personas numériques personnalisables facilitent l'engagement et l'interaction, favorisant la co-propriété entre créateurs et fans. En intégrant des outils IA de pointe avec la technologie blockchain, CreatorBid redéfinit le paysage des créateurs et se positionne comme un acteur clé dans la transition vers une économie des créateurs autonome. Le partenariat avec io.net met non seulement en avant les applications pratiques des réseaux GPU décentralisés, mais accélère également la vision de CreatorBid pour un avenir axé sur l'IA dans la création de contenu et le branding.
EdgeAI Décentralisé : Démocratiser l'accès à l'intelligence artificielle cover
il y a 6 mois

EdgeAI Décentralisé : Démocratiser l'accès à l'intelligence artificielle

Le paysage de l'intelligence artificielle (IA) subit une transformation significative avec l'émergence de l'EdgeAI Décentralisé, qui vise à démocratiser l'accès aux technologies de l'IA. Actuellement, une poignée de grandes entreprises technologiques, dont OpenAI, IBM, Amazon et Google, dominent la couche d'infrastructure de l'IA, créant des barrières pour les entités plus petites et limitant l'accès pour des millions d'utilisateurs et d'entreprises dans le monde entier. Ce contrôle centralisé non seulement augmente les coûts mais restreint également l'innovation. L'EdgeAI Décentralisé, illustré par des initiatives comme Network3, cherche à relever ces défis en intégrant l'Infrastructure Physique Décentralisée (DePIN) et l'EdgeAI, permettant aux systèmes d'IA de fonctionner sur divers appareils tout en garantissant la confidentialité et l'implication de la communauté. Un des avantages critiques de l'EdgeAI est sa capacité à réduire la dépendance aux grands centres de données appartenant aux géants de la technologie. Les modèles d'IA traditionnels, en particulier les grands modèles de langage (LLMs) tels que GPT-3, nécessitent des ressources substantielles pour l'entraînement, coûtant souvent entre 500 000 et 4,6 millions de dollars. Cette barrière financière renforce encore le monopole des grandes entreprises technologiques. En revanche, l'EdgeAI permet aux développeurs de former et de déployer des modèles sur des appareils plus petits, des smartphones aux appareils IoT, élargissant l'accessibilité et favorisant l'innovation. Cependant, pour que l'EdgeAI atteigne son plein potentiel, les appareils doivent être capables de communiquer et de partager des ressources efficacement, surmontant les limitations en matière de calcul et de stockage. Le cadre innovant d'Apprentissage Fédéré Décentralisé de Network3 représente un bond en avant significatif dans la formation collaborative de l'IA. En permettant à plusieurs appareils ou 'nœuds' de regrouper leurs ressources, ce cadre améliore l'efficacité et la croissance des systèmes d'IA. L'intégration de méthodes de cryptage robustes, telles que la Signature Cryptographique Anonyme sans Certificat (CLSC), garantit un partage de données sécurisé tout en préservant la confidentialité. De plus, l'utilisation du codage Reed-Solomon optimise la précision des données. En conséquence, les appareils Edge au sein de l'écosystème Network3 peuvent effectuer des analyses locales, conduisant à une faible latence et à des réponses en temps réel. Cette approche décentralisée atténue non seulement le monopole centralisé mais ouvre également de nouvelles sources de revenus pour les développeurs et les utilisateurs, rendant finalement l'IA plus accessible et bénéfique pour tous.
Ajustement Fin de Llama 3.2 : Un Guide Complet pour Améliorer la Performance du Modèle cover
il y a 6 mois

Ajustement Fin de Llama 3.2 : Un Guide Complet pour Améliorer la Performance du Modèle

La récente sortie de Llama 3.2 par Meta marque une avancée significative dans l'ajustement des grands modèles de langage (LLMs), facilitant ainsi aux ingénieurs en apprentissage automatique et aux scientifiques des données l'amélioration de la performance des modèles pour des tâches spécifiques. Ce guide décrit le processus d'ajustement, y compris la configuration nécessaire, la création de jeux de données et la configuration des scripts d'entraînement. L'ajustement permet à des modèles comme Llama 3.2 de se spécialiser dans des domaines particuliers, tels que le support client, ce qui entraîne des réponses plus précises et pertinentes par rapport aux modèles à usage général. Pour commencer l'ajustement de Llama 3.2, les utilisateurs doivent d'abord configurer leur environnement, en particulier s'ils utilisent Windows. Cela implique d'installer le Sous-système Windows pour Linux (WSL) afin d'accéder à un terminal Linux, de configurer l'accès GPU avec les pilotes NVIDIA appropriés, et d'installer des outils essentiels comme les dépendances de développement Python. Une fois l'environnement préparé, les utilisateurs peuvent créer un jeu de données adapté à l'ajustement. Par exemple, un jeu de données peut être généré pour entraîner Llama 3.2 à répondre à des questions mathématiques simples, ce qui sert d'exemple simple d'ajustement ciblé. Après avoir préparé le jeu de données, l'étape suivante consiste à configurer un script d'entraînement en utilisant la bibliothèque Unsloth, qui simplifie le processus d'ajustement grâce à l'Adaptation à Bas Rang (LoRA). Cela implique d'installer les packages requis, de charger le modèle et de commencer le processus d'entraînement. Une fois le modèle ajusté, il est crucial d'évaluer sa performance en générant un ensemble de test et en comparant les réponses du modèle avec les réponses attendues. Bien que l'ajustement offre des avantages substantiels pour améliorer la précision du modèle pour des tâches spécifiques, il est essentiel de considérer ses limitations et l'efficacité potentielle de l'ajustement d'invite pour des exigences moins complexes.
Stratos s'associe à Tatsu pour améliorer la vérification d'identité décentralisée cover
il y a 6 mois

Stratos s'associe à Tatsu pour améliorer la vérification d'identité décentralisée

Dans un développement significatif au sein des secteurs de la blockchain et de l'IA, Stratos a annoncé un partenariat stratégique avec Tatsu, un projet crypto IA décentralisé pionnier opérant au sein du réseau Bittensor et de l'écosystème TAO. Tatsu a réalisé des avancées remarquables dans la vérification d'identité décentralisée, en s'appuyant sur des métriques avancées telles que l'activité GitHub et les soldes de cryptomonnaies pour créer un score humain unique. Cette approche innovante améliore les processus de vérification, les rendant plus fiables et efficaces dans le paysage décentralisé. Avec le lancement imminent de Tatsu Identity 2.0 et d'un nouveau sous-réseau de compréhension de documents, Tatsu est prêt à redéfinir les capacités de l'IA décentralisée. Le partenariat verra Tatsu intégrer les solutions de stockage décentralisé de Stratos, ce qui renforcera considérablement leurs protocoles de gestion et de sécurité des données. Cette collaboration n'est pas seulement une fusion de technologies, mais une fusion d'expertises visant à repousser les limites de ce qui est possible dans l'espace décentralisé. En utilisant l'infrastructure robuste de Stratos, Tatsu peut améliorer ses offres et garantir que ses processus de vérification d'identité sont à la fois sécurisés et efficaces. Cette synergie devrait favoriser l'innovation et la croissance au sein de l'écosystème TAO, ouvrant la voie à de nouvelles applications pour la technologie avancée de Tatsu. Alors que les deux entreprises s'engagent ensemble dans ce voyage, les implications pour la communauté blockchain sont substantielles. L'intégration du stockage décentralisé avec des solutions IA de pointe pourrait entraîner des changements transformateurs dans la manière dont la vérification d'identité est effectuée dans divers secteurs. Ce partenariat illustre le potentiel de la combinaison des technologies décentralisées avec l'IA pour créer des solutions plus sécurisées, efficaces et innovantes, établissant un précédent pour de futures collaborations dans l'espace blockchain.
Google Lance Imagen 3 : Une Nouvelle Ère dans la Génération d'Images par IA cover
il y a 6 mois

Google Lance Imagen 3 : Une Nouvelle Ère dans la Génération d'Images par IA

Google a officiellement lancé Imagen 3, son dernier modèle d'IA de génération d'images à partir de texte, cinq mois après son annonce initiale lors de Google I/O 2024. Cette nouvelle itération promet de fournir une qualité d'image améliorée avec des détails accrus, un meilleur éclairage et moins d'artefacts visuels par rapport à ses prédécesseurs. Imagen 3 est conçu pour interpréter les invites en langage naturel de manière plus précise, permettant aux utilisateurs de générer des images spécifiques sans avoir besoin d'une ingénierie complexe des invites. Il peut produire une variété de styles, allant de photographies hyper-réalistes à des illustrations fantaisistes, et même rendre le texte dans les images de manière claire, ouvrant la voie à des applications innovantes telles que des cartes de vœux personnalisées et des supports promotionnels. La sécurité et l'utilisation responsable sont au cœur du développement d'Imagen 3. Google DeepMind a mis en œuvre des techniques rigoureuses de filtrage et d'étiquetage des données pour minimiser le risque de génération de contenu nuisible ou inapproprié. Cet engagement envers des normes éthiques est crucial alors que la technologie de l'IA générative devient de plus en plus intégrée dans divers secteurs. Les utilisateurs intéressés par l'essai d'Imagen 3 peuvent le faire via le chatbot Gemini de Google en saisissant des invites en langage naturel, permettant au modèle de créer des images détaillées en fonction de leurs descriptions. Malgré ses avancées, Imagen 3 présente des limitations qui peuvent affecter son utilisation pour certains professionnels. Actuellement, il ne prend en charge qu'un format d'image carré, ce qui pourrait restreindre les projets nécessitant des formats paysage ou portrait. De plus, il manque de fonctionnalités d'édition telles que le remplissage ou l'extension d'images, et les utilisateurs ne peuvent pas appliquer de filtres ou de styles artistiques à leurs images. Comparé à des concurrents comme Midjourney, DALL-E 3 et Flux, Imagen 3 excelle en qualité d'image et en traitement du langage naturel, mais est en deçà en termes de contrôle et d'options de personnalisation pour les utilisateurs. Dans l'ensemble, bien qu'Imagen 3 soit un outil puissant pour générer des images de haute qualité, ses limitations peuvent dissuader les utilisateurs à la recherche de plus de flexibilité dans leurs processus créatifs.
Le Réseau Render Révolutionne la Création de Contenu Numérique avec 'Unification' cover
il y a 6 mois

Le Réseau Render Révolutionne la Création de Contenu Numérique avec 'Unification'

Lors d'une récente discussion organisée par Render Foundation Spaces sur X, Jules Urbach, PDG d'OTOY et fondateur du Réseau Render, a partagé des informations sur les réalisations révolutionnaires facilitées par leur technologie collaborative lors de la production de "765874 Unification", un court-métrage célébrant le 30e anniversaire de Star Trek. Urbach a souligné comment le Réseau Render révolutionne la création de contenu numérique, permettant aux créateurs d'explorer de nouveaux horizons dans le cinéma, l'art et la narration. La production du film a démontré le potentiel du Réseau Render à démocratiser la création de contenu de haute qualité, permettant des effets visuels impressionnants sans avoir besoin de budgets exorbitants. L'un des points forts de la conversation a été l'utilisation innovante de l'apprentissage automatique (ML) pour améliorer les processus de réalisation cinématographique traditionnels. Urbach a noté qu'OTOY a une longue histoire d'utilisation de doubles numériques et de remplacement de visage, mais les avancées technologiques leur ont permis de réduire considérablement les heures de travail. L'intégration de l'IA a rationalisé la modélisation des visages des acteurs, éliminant le besoin de marqueurs faciaux encombrants. Cela a non seulement accéléré le processus de production, mais a également permis aux artistes de se concentrer davantage sur la narration plutôt que sur les défis techniques, montrant comment l'IA et le rendu GPU peuvent transformer le paysage créatif. En regardant vers l'avenir, le Réseau Render s'apprête à lancer de nouveaux outils et intégrations, notamment avec l'approche du Black Friday. Les plans incluent l'intégration d'outils d'IA dans les flux de travail de création 3D et l'expansion du support pour le rendu holographique. La vision d'Urbach reste claire : fournir aux créateurs les ressources dont ils ont besoin pour raconter des histoires captivantes. Le succès de "Unification" témoigne de l'esprit innovant du Réseau Render, ouvrant la voie aux futurs créateurs pour repousser les limites de ce qui est possible dans la création de contenu numérique.
Le laboratoire d'IA s'associe à Theta EdgeCloud pour améliorer l'éducation en IA cover
il y a 6 mois

Le laboratoire d'IA s'associe à Theta EdgeCloud pour améliorer l'éducation en IA

Le laboratoire d'IA, un fournisseur d'e-learning de premier plan en Corée du Sud, a récemment signé un accord pluriannuel avec Theta EdgeCloud, marquant une étape significative dans l'amélioration de ses offres éducatives en intelligence artificielle (IA) et en analyse de données (AD). Ce partenariat permet au laboratoire d'IA de tirer parti des ressources GPU distribuées de Theta EdgeCloud, ce qui facilitera l'éducation avancée en IA, l'entraînement de modèles et les applications d'IA générative. Avec un fort accent sur les expériences pratiques et le contenu interactif, le laboratoire d'IA vise à offrir une éducation de haute qualité grâce à sa plateforme innovante, CodingX, reconnue pour son efficacité dans l'enseignement des compétences en IA et en codage à l'échelle mondiale. La collaboration avec Theta EdgeCloud devrait apporter plusieurs avantages au laboratoire d'IA. En utilisant des ressources GPU à la demande, l'institution peut améliorer la flexibilité du programme, permettant une intégration transparente de l'IA dans ses programmes éducatifs. De plus, le partenariat devrait réduire les coûts opérationnels grâce à l'infrastructure distribuée de Theta, permettant une montée en échelle rentable de leurs services. Plus important encore, l'intégration de méthodologies d'apprentissage pilotées par l'IA facilitera des expériences d'apprentissage personnalisées, adaptées aux besoins uniques de chaque étudiant, améliorant ainsi la performance globale. Theta EdgeCloud a rapidement élargi sa base de clients, s'associant récemment à des institutions prestigieuses telles que l'Université nationale de Séoul et l'Université de Pékin. Cette croissance souligne la demande croissante de solutions technologiques évolutives et rentables dans le secteur de l'éducation. John Choi, PDG du laboratoire d'IA, a exprimé sa confiance dans le partenariat, soulignant la forte réputation de Theta parmi les universités sud-coréennes et son potentiel à élargir considérablement les opérations du laboratoire d'IA dans les années à venir. Cette collaboration est prête à répondre à la demande croissante de compétences technologiques dans un avenir piloté par l'IA, positionnant le laboratoire d'IA comme un acteur clé dans le paysage éducatif en évolution.
Ajustement fin de Llama 3.2 11B avec Q-LoRA pour la réponse à des questions extractives cover
il y a 6 mois

Ajustement fin de Llama 3.2 11B avec Q-LoRA pour la réponse à des questions extractives

Les grands modèles de langage (LLM) sont devenus des outils essentiels dans le traitement du langage naturel, capables de gérer une variété de tâches. Cependant, en raison de leur formation large, ils peuvent ne pas exceller dans des applications spécifiques sans adaptation supplémentaire. Les techniques d'ajustement fin, telles que Q-LoRA, permettent aux chercheurs d'adapter des modèles pré-entraînés comme Llama 3.2 11B pour des tâches particulières, telles que la réponse à des questions extractives. Cet article décrit le processus d'ajustement fin de Llama 3.2 11B en utilisant Q-LoRA sur le jeu de données SQuAD v2, mettant en avant les améliorations de performance obtenues grâce à cette méthode. LoRA, ou Low-Rank Adaptation, est une technique qui introduit de nouveaux poids dans un modèle existant sans modifier les paramètres d'origine. En ajoutant des poids d'adaptateur qui ajustent les sorties de certaines couches, LoRA permet aux modèles de conserver leurs connaissances pré-entraînées tout en acquérant de nouvelles capacités adaptées à des tâches spécifiques. Dans cette expérience, l'accent est mis sur l'ajustement fin de Llama 3.2 11B pour la réponse à des questions extractives, visant à extraire des segments de texte précis qui répondent directement aux requêtes des utilisateurs, plutôt que de résumer ou de reformuler le contenu. L'expérience a été réalisée sur une plateforme Google Colab utilisant un GPU A100, avec la bibliothèque Hugging Face Transformers facilitant la mise en œuvre. Les résultats du processus d'ajustement fin étaient prometteurs, montrant une amélioration significative des performances du modèle sur l'ensemble de validation. Le score BERT est passé de 0,6469 à 0,7505, tandis que le score de correspondance exacte est passé de 0,116 à 0,418. Ces améliorations indiquent que la technique Q-LoRA adapte efficacement le modèle Llama 3.2 11B pour les tâches de réponse à des questions extractives. Cet article sert de guide pour les chercheurs cherchant à appliquer des méthodes similaires à d'autres modèles et tâches, soulignant le potentiel de l'ajustement fin dans le domaine du traitement du langage naturel.
io.net s'associe à OpenLedger pour améliorer le développement de modèles d'IA cover
il y a 6 mois

io.net s'associe à OpenLedger pour améliorer le développement de modèles d'IA

Cette semaine, la plateforme de ressources GPU distribuées et décentralisées io.net a annoncé un partenariat stratégique avec OpenLedger, une blockchain de données spécifiquement conçue pour l'intelligence artificielle (IA). Cette collaboration permettra à OpenLedger d'utiliser les ressources de calcul GPU mondiales d'io.net, améliorant ainsi sa capacité à affiner et à former des modèles d'IA. Connue sous le nom d'Internet des GPU, io.net fournit un puissant réseau de ressources GPU distribuées, permettant à OpenLedger d'accélérer le développement de ses modèles d'IA et permettant aux développeurs de créer des applications décentralisées (DApps) basées sur l'IA plus efficaces. Selon Tausif Ahmad, vice-président du développement commercial chez io.net, ce partenariat fournira à OpenLedger une infrastructure fiable pour faire évoluer ses modèles d'IA et débloquer de nouveaux cas d'utilisation, renforçant ainsi sa position en tant que fournisseur innovant dans le domaine de l'IA décentralisée. En plus de fournir des ressources GPU, l'infrastructure d'io.net soutiendra l'inférence et l'hébergement de modèles d'IA, garantissant des performances et une scalabilité optimales. Ce partenariat devrait renforcer la réputation d'OpenLedger en tant que fournisseur de jeux de données fiables, alimentant l'innovation à l'intersection de la blockchain et de l'IA. La collaboration vise à créer des données de haute qualité de manière sécurisée et efficace tout en stimulant l'innovation et la performance. Un membre de l'équipe d'OpenLedger a souligné que tirer parti de l'infrastructure GPU d'io.net permettra aux utilisateurs de peaufiner les modèles d'IA plus efficacement, conduisant finalement au développement de modèles d'IA fiables et explicables. Un facteur significatif dans le choix d'OpenLedger d'io.net comme fournisseur de ressources GPU est les solutions de calcul rentables et évolutives proposées. Ce partenariat permettra à OpenLedger d'élargir ses services sans les contraintes de coûts élevés associés aux fournisseurs de cloud centralisés. En traitant des ensembles de données plus volumineux et en développant des modèles d'IA avec une efficacité sans précédent, OpenLedger vise à repousser les limites de l'innovation en IA décentralisée. En fin de compte, ce partenariat s'aligne sur la mission d'OpenLedger de favoriser un environnement de données ouvert et collaboratif tout en promouvant l'adoption de solutions d'IA alimentées par la blockchain.
Stratos s'associe à Cortensor pour améliorer l'infrastructure AI décentralisée cover
il y a 6 mois

Stratos s'associe à Cortensor pour améliorer l'infrastructure AI décentralisée

Dans un développement significatif pour le paysage de l'IA décentralisée, Stratos a annoncé un partenariat avec Cortensor, un leader des réseaux d'inférence AI décentralisés. Cette collaboration vise à améliorer l'infrastructure AI décentralisée en intégrant les solutions de stockage et de streaming décentralisées robustes de Stratos dans l'écosystème AI innovant de Cortensor. Le partenariat est destiné à fournir un stockage de données sécurisé et évolutif, garantissant que les charges de travail AI publiques et privées peuvent fonctionner de manière transparente et fiable, améliorant ainsi la performance globale du réseau. L'une des caractéristiques clés de ce partenariat est l'introduction de capacités de streaming d'inférence en temps réel. Les API de streaming vidéo avancées de Stratos permettront à Cortensor de délivrer des résultats d'inférence AI instantanés, facilitant des applications dynamiques et des tâches pilotées par les utilisateurs. Cette amélioration devrait optimiser les performances des charges de travail AI, car l'infrastructure à haut débit de Stratos améliorera la communication de nœud à nœud, garantissant un flux de données efficace même dans des environnements à forte demande. C'est une étape cruciale vers la rendre les outils AI avancés plus accessibles et rentables. Les deux entreprises partagent une vision pour un avenir AI décentralisé, avec les systèmes de Preuve d'Inference (PoI) et de Preuve de Travail Utile (PoUW) de Cortensor validant les tâches et récompensant les contributeurs pour un travail significatif. Stratos, avec son infrastructure décentralisée soutenant les solutions Web3 et AI, dispose de plus de 900 nœuds de stockage actifs dans le monde et d'une capacité de 21 To. Ce partenariat illustre non seulement leur engagement envers l'innovation, mais vise également à débloquer de nouvelles possibilités pour les entreprises, les développeurs et les mineurs communautaires, construisant finalement un écosystème AI plus inclusif et évolutif. Restez à l'écoute pour d'autres mises à jour alors qu'ils continuent à repousser les limites des solutions AI décentralisées.
Inscrivez-vous pour les dernières nouvelles et mises à jour de DePIN