Theta EdgeCloud ajoute DeepSeek LLM
Theta EdgeCloud a intégré DeepSeek-R1, un modèle de langage de pointe développé par la startup chinoise d’IA DeepSeek. DeepSeek-R1 offre des performances comparables à des modèles comme ChatGPT d’OpenAI, Mixtral de Mistral et LLaMA de Meta, tout en utilisant des ressources informatiques significativement moindres. En soutenant DeepSeek-R1, Theta EdgeCloud, une infrastructure cloud GPU décentralisée, améliore l’efficacité et l’accessibilité de l’IA. Les innovations de DeepSeek, telles que l’attention latente multi-tête (MLA) et la quantification de précision FP8, permettent aux LLM avancés de fonctionner sur des GPU grand public, rendant l’IA haute performance plus accessible aux développeurs, chercheurs et petites entreprises sans dépendre d’une infrastructure cloud centralisée coûteuse.
L’architecture décentralisée de Theta EdgeCloud offre une évolutivité en allouant dynamiquement des nœuds GPU en fonction de la demande, éliminant ainsi le besoin d’une expansion coûteuse de l’infrastructure physique. Cette approche réduit également les coûts en tirant parti de la puissance de calcul sous-utilisée, permettant aux utilisateurs de ne payer que pour les ressources qu’ils consomment. En plus d’être rentable, Theta EdgeCloud promeut la durabilité en répartissant le traitement de l’IA sur plusieurs sites au lieu de dépendre de centres de données énergivores.
Avec cette intégration, Theta Labs continue de repousser les limites de l’infrastructure d’IA décentralisée, offrant une alternative plus rentable, évolutive et respectueuse de l’environnement pour l’entraînement et l’inférence de modèles d’IA.