Глубокий анализ децентрализованной платформы GPU-как-сервиса Aethir
четверг, июнь 6, 2024 11:36 утра
310
Aethir, децентрализованная платформа GPU-как-сервис, была проанализирована в новом отчете Mythos Research и CMC Research. Отчет рассматривает технологию, партнерство и рыночное положение Aethir в децентрализованных сетях физической инфраструктуры (DePIN). Aethir стремится соединить поставщиков GPU с потребителями в области искусственного интеллекта, игр и виртуальных вычислений. Она гордится инфраструктурой GPU на сумму 24 миллиона долларов в 13 странах, выступая в качестве рынка для агрегированных ресурсов GPU. Разнообразная сеть платформы позволяет эффективно объединять и использовать распределенные вычислительные ресурсы, подчеркивая ее потенциал на рынке децентрализованной инфраструктуры.
Related News
4 дня назад
W2140 EXPO подчеркивает инновации Titan Network и Pnuts.AI12 ноября 2024 года в Бангкоке состоялся W2140 EXPO, ведущая мировая конференция по ИИ и Web3. Мероприятие, совместно организованное Азиатской бизнес-ассоциацией Таиланда и правительством Таиланда, привлекло участие более 1000 организаций и более 200000 участников, что сделало его крупнейшей конференцией подобного рода. В ходе мероприятия члены основной команды Titan Network провели содержательные обсуждения с сотрудниками ООН и доктором Джеймсом Онгом, выдающимся ученым и основателем Международного института искусственного интеллекта (AIII). Основной доклад доктора Онгa, озаглавленный "ИИ и веб для человечества от глобального большинства", подчеркнул важность децентрализованных технологий в современном мире.
Доктор Онг выделил Titan Network и ее экосистемного партнера Pnuts.AI как образцовые модели в рамках AIDePIN и AIDeHIN. Он похвалил Titan за разработку децентрализованной сети физической инфраструктуры (DePIN), которая использует блокчейн для использования неиспользуемых ресурсов. Эта инновация предлагает децентрализованную, безопасную и прозрачную альтернативу традиционным облачным сервисам, потенциально позволяя сэкономить до 96% затрат. Кроме того, он отметил Pnuts.AI как самый мощный инструмент для перевода в реальном времени, разработанный для преодоления языковых барьеров с использованием технологий ИИ и Web3, обеспечивая быстрые и точные переводы речи на более чем 200 языках.
Кроме того, доктор Онг обсудил будущее Pnuts.AI как выдающегося проекта Web3, представляя себе бесшовную интеграцию ИИ, Web3 и DeHIN. В этом подходе лучшие эксперты по человеческим языкам будут сотрудничать с ИИ-системами для значительного повышения точности перевода. Эти эксперты также предоставят обширные цифровые учебные материалы для улучшения моделей перевода, в то время как механизмы Web3 будут стимулировать совместные усилия человека и ИИ, способствуя созданию мощной экосистемы приложений ИИ-Web3. Эта интеграция обещает революционизировать наш подход к переводу языков и коммуникации в глобализированном мире.
6 дней назад
Революция в эффективности ИИ: Влияние алгоритма L-MulБыстрое развитие искусственного интеллекта (ИИ) привело к значительным достижениям в различных секторах, однако это имеет высокую экологическую цену из-за его большого потребления энергии. Модели ИИ, особенно те, которые используют нейронные сети, требуют значительной вычислительной мощности, что приводит к огромному потреблению электроэнергии. Например, запуск ChatGPT в начале 2023 года потреблял примерно 564 МВтч электроэнергии в день, что эквивалентно потребностям в энергии около 18 000 домохозяйств в США. Этот энергетический спрос в первую очередь обусловлен сложными операциями с плавающей запятой, необходимыми для вычислений нейронных сетей, что делает поиск энергоэффективных решений критически важным по мере увеличения сложности систем ИИ.
Вводим алгоритм L-Mul (умножение с линейной сложностью), революционное развитие, которое обещает значительно снизить энергетическую нагрузку, связанную с вычислениями ИИ. L-Mul работает, приближая умножения с плавающей запятой простыми целочисленными сложениями, которые могут быть интегрированы в существующие модели ИИ без необходимости тонкой настройки. Этот инновационный подход продемонстрировал замечательную экономию энергии, достигая до 95% снижения потребления энергии для поэлементных тензорных умножений и 80% для вычислений скалярного произведения. Важно отметить, что эта энергоэффективность не компрометирует точность моделей ИИ, что является значительным достижением в поиске устойчивого ИИ.
Последствия L-Mul выходят за рамки простой экономии энергии; он улучшает производительность моделей ИИ в различных приложениях, включая трансформерные модели и большие языковые модели (LLM). В таких бенчмарках, как GSM8k и задачи визуального вопросно-ответного взаимодействия, L-Mul превзошел традиционные форматы с плавающей запятой, такие как FP8, демонстрируя свой потенциал эффективно обрабатывать сложные вычисления. Поскольку спрос на ИИ продолжает расти, L-Mul выделяется как ключевое решение, которое не только решает энергетический кризис, связанный с ИИ, но и прокладывает путь к более устойчивому будущему в развитии технологий.
6 дней назад
Интеграция OpenAI с Solana с использованием Lit ProtocolВ революционной интеграции Lit Protocol продемонстрировал, как безопасно объединить возможности OpenAI и блокчейна Solana. Используя Wrapped Keys на Solana, разработчики могут подписывать ответы, генерируемые API OpenAI, в рамках Lit Action. Эта интеграция открывает множество инновационных приложений, особенно в области автономных агентов на базе ИИ. Эти агенты могут работать в блокчейне, не раскрывая чувствительные API-ключи, благодаря пороговым программируемым парам ключей (PKP) и защищенным вычислительным средам (TEE) Lit. Это обеспечивает защиту всех чувствительных операций, позволяя агентам ИИ взаимодействовать как с блокчейном, так и с традиционными веб-сервисами, сохраняя децентрализованные идентичности.
Интеграция также подчеркивает важность приватных вычислений и обработки данных. Шифруя данные и выполняя запросы больших языковых моделей (LLM) в TEE Lit, разработчики могут гарантировать, что чувствительная информация, такая как медицинские записи или финансовые данные, остается защищенной на протяжении всего процесса. TEE обеспечивает аппаратную изоляцию, что означает, что даже операторы узлов не могут получить доступ к расшифрованным данным. Это сквозное шифрование позволяет безопасно обрабатывать частную информацию, гарантируя, что все вычисления происходят в защищенной среде, прежде чем результаты будут повторно зашифрованы и отправлены обратно.
Более того, интеграция облегчает генерацию криптографических доказательств для обучения и вывода. Ограничивая разрешения на подпись PKP конкретными хэшами CID IPFS, разработчики могут гарантировать подлинность контента, сгенерированного LLM. Эта система доказательств особенно полезна для аудиторских следов и требований соблюдения, поскольку она позволяет третьим сторонам проверять подлинность контента, произведенного LLM. В целом, эта интеграция демонстрирует потенциал сочетания ИИ с блокчейн-технологией, прокладывая путь к более безопасным и эффективным приложениям в будущем.
6 дней назад
Stratos сотрудничает с DeepSouth AI для улучшения приложений Web3Stratos объявил о захватывающем партнерстве с DeepSouth AI, ведущим игроком в области искусственного интеллекта, который использует технологии нейроморфных вычислений. Эта коллаборация направлена на объединение передовых возможностей ИИ DeepSouth AI с децентрализованными инфраструктурными решениями Stratos. Цель заключается в создании более интеллектуальных и доступных децентрализованных приложений в экосистеме Web3, что улучшит общую функциональность и пользовательский опыт этих приложений.
DeepSouth AI разрабатывает универсальную платформу, оснащенную комплексом мощных инструментов ИИ. Эти инструменты специально предназначены для помощи разработчикам и предприятиям в реализации передовых решений ИИ. Интегрировавшись с надежной и масштабируемой инфраструктурой Stratos, DeepSouth AI получит выгоду от децентрализованного решения для хранения данных, которое предлагает надежность, безопасность и производительность, необходимые для поддержки приложений, управляемых ИИ, с высоким спросом.
Благодаря этому стратегическому сотрудничеству Stratos готов предоставить необходимую децентрализованную инфраструктуру для удовлетворения потребностей платформы DeepSouth AI в данных с высоким объемом. Это партнерство открывает новую эру приложений Web3, где искусственный интеллект и децентрализованные технологии могут работать в гармонии, в конечном итоге способствуя инновациям и доступности в цифровом пространстве.
7 дней назад
io.net и NovaNet партнеры для улучшения верификации GPU с помощью zkGPU-IDВ значительном шаге к повышению безопасности и надежности в децентрализованных вычислительных сетях, io.net, децентрализованная сеть физической инфраструктуры (DePIN), специализирующаяся на кластерах GPU, сформировала партнерство с NovaNet, лидером в области доказательств с нулевым разглашением (ZKP). Это сотрудничество направлено на разработку революционного решения, известного как идентификация GPU с нулевым разглашением (zkGPU-ID), которое предоставит криптографические гарантии относительно подлинности и производительности ресурсов GPU. Используя передовые технологии ZKP от NovaNet, io.net сможет подтвердить, что GPU, используемые в его децентрализованной платформе, не только соответствуют, но и потенциально превосходят свои рекламируемые характеристики, тем самым повышая доверие пользователей и надежность ресурсов.
Таусиф Ахмед, вице-президент по развитию бизнеса в io.net, подчеркнул важность этого партнерства, заявив, что оптимизация координации и верификации в обширной сети распределенных поставщиков GPU имеет решающее значение для создания децентрализованной вычислительной сети, готовой к предприятиям и без разрешений. Интеграция zkGPU-ID от NovaNet позволит io.net постоянно проверять и тестировать свои ресурсы GPU на глобальном уровне, обеспечивая уверенность клиентов в том, что они могут арендовать надежные GPU, которые соответствуют их специфическим потребностям. Эта инициатива представляет собой значительный шаг вперед в децентрализованной вычислительной инфраструктуре, направленной на устранение проблем, связанных с подлинностью ресурсов и производительностью.
Более того, протокол zkGPU-ID использует технологию zkVM (нулевая виртуальная машина) от NovaNet, которая играет важную роль в создании и верификации криптографических доказательств характеристик GPU по более низким затратам. Уайат Бенно, технический соучредитель NovaNet, подчеркнул необходимость работы ZKP на различных устройствах и в различных контекстах для обеспечения конфиденциальности и локальной верифицируемости. zkEngine от NovaNet тщательно тестирует и идентифицирует GPU в платформе io.net, создавая ZKP, который гарантирует целостность GPU. Это партнерство устанавливает новый стандарт прозрачности, надежности и безопасности в децентрализованных вычислительных сетях GPU, что является важным шагом вперед в отрасли.
8 дней назад
Falcon Mamba 7B: Прорыв в моделях ИИ без вниманияБыстрая эволюция искусственного интеллекта (ИИ) значительно зависит от появления моделей без внимания, и Falcon Mamba 7B является ярким примером. Разработанная Институтом технологических инноваций (TII) в Абу-Даби, эта революционная модель отходит от традиционных архитектур на основе трансформеров, которые сильно полагаются на механизмы внимания. Вместо этого Falcon Mamba 7B использует модели состояния пространства (SSM), которые обеспечивают более быструю и экономичную по памяти инференцию, решая вычислительные задачи, связанные с задачами с длинным контекстом. Обучаясь на обширном наборе данных из 5,5 триллионов токенов, Falcon Mamba 7B позиционирует себя как конкурентоспособная альтернатива существующим моделям, таким как Gemma от Google и Phi от Microsoft.
Архитектура Falcon Mamba 7B разработана для поддержания постоянных затрат на инференцию, независимо от длины входных данных, эффективно решая проблему квадратичного масштабирования, которая беспокоит модели трансформеров. Эта уникальная способность позволяет ей превосходить в приложениях, требующих обработки длинного контекста, таких как суммирование документов и автоматизация обслуживания клиентов. Хотя она продемонстрировала превосходные результаты в различных бенчмарках обработки естественного языка, она все еще сталкивается с ограничениями в задачах, требующих сложного понимания контекста. Тем не менее, ее эффективность по памяти и скорость делают ее привлекательным выбором для организаций, стремящихся оптимизировать свои решения ИИ.
Последствия Falcon Mamba 7B выходят за рамки простых метрик производительности. Ее поддержка квантизации позволяет эффективно развертывать модель как на GPU, так и на CPU, что дополнительно увеличивает ее универсальность. По мере эволюции ландшафта ИИ успех Falcon Mamba 7B предполагает, что модели без внимания могут вскоре стать стандартом для многих приложений. С продолжающимися исследованиями и разработками эти модели могут потенциально превзойти традиционные архитектуры как по скорости, так и по точности, прокладывая путь для инновационных приложений в различных отраслях.