Theta EdgeCloud добавляет DeepSeek LLM
Theta EdgeCloud интегрировала DeepSeek-R1, передовую модель большого языка, разработанную китайским стартапом DeepSeek. DeepSeek-R1 демонстрирует производительность, сопоставимую с моделями, такими как ChatGPT от OpenAI, Mixtral от Mistral и LLaMA от Meta, при этом используя значительно меньше вычислительных ресурсов. Поддерживая DeepSeek-R1, Theta EdgeCloud, децентрализованная облачная инфраструктура GPU, повышает эффективность и доступность ИИ. Инновации DeepSeek, такие как многоголовое латентное внимание (MLA) и квантование с точностью FP8, позволяют продвинутым LLM работать на потребительских GPU, делая высокопроизводительный ИИ более доступным для разработчиков, исследователей и малых предприятий без необходимости полагаться на дорогостоящую централизованную облачную инфраструктуру.
Децентрализованная архитектура Theta EdgeCloud обеспечивает масштабируемость, динамически выделяя узлы GPU в зависимости от спроса, что устраняет необходимость в дорогостоящем расширении физической инфраструктуры. Этот подход также снижает затраты, используя недостаточно используемую вычислительную мощность, позволяя пользователям платить только за ресурсы, которые они потребляют. В дополнение к своей экономической эффективности, Theta EdgeCloud способствует устойчивому развитию, распределяя обработку ИИ по нескольким местам, а не полагаясь на энергоемкие центры обработки данных.
С этой интеграцией Theta Labs продолжает раздвигать границы децентрализованной инфраструктуры ИИ, предлагая более экономически эффективную, масштабируемую и экологически чистую альтернативу для обучения и вывода моделей ИИ.