Network3 Anuncia Novo Recurso de Modelo de Linguagem Grande Local (LLM)

quinta-feira, outubro 3, 2024 3:44 PM
15,244
Network3 Anuncia Novo Recurso de Modelo de Linguagem Grande Local (LLM) cover

A Network3, uma plataforma de camada de AI Layer2 para desenvolvedores globais de inteligência artificial, recentemente revelou sua mais recente inovação na Cúpula do Mundo Real R3al em Cingapura. O novo recurso de Modelo de Linguagem Grande Local (LLM) foi projetado para aprimorar a eficiência e o desempenho da tecnologia Edge AI. Edge AI envolve implantar modelos de AI diretamente em dispositivos locais como smartphones, aproximando o processamento de dados da fonte para melhorar o desempenho do aplicativo e reduzir a latência. O mercado global de Edge AI está projetado para ultrapassar US$ 269 bilhões nos próximos oito anos, destacando a crescente importância dessa tecnologia.

Transformando Dispositivos Inteligentes em Ativos de Treinamento de AI

Com foco em tornar as tecnologias Web3 & AI acessíveis, a Network3 integra o DePIN com AI para permitir que dispositivos IoT treinem pequenos modelos de AI. Ao alavancar recursos ociosos em dispositivos inteligentes, indivíduos podem participar do treinamento de AI e ganhar recompensas. A introdução do recurso LLM local visa otimizar as capacidades de processamento de dispositivos inteligentes durante os tempos ociosos, reduzindo a dependência da computação em nuvem, reduzindo o uso da largura de banda e aprimorando a segurança e privacidade dos dados. A Network3, com mais de 320.000 nós ativos globalmente, lançou recentemente o dispositivo de mineração N3 Edge V1, oferecendo capacidades de mineração dupla para tokens IoTeX e Network3.

Oferecendo Serviços de Chat de AI em Dispositivos Móveis

A última atualização da Network3 permite que os usuários acessem serviços de chat de AI em seus dispositivos móveis sem a necessidade de uma infraestrutura de nuvem cara. Uma versão de teste da atualização estará disponível para download em breve no site oficial, proporcionando aos usuários a oportunidade de interagir com o modelo, ganhar tokens e personalizar sua experiência de AI.

Related News

W2140 EXPO Destaca Inovações da Titan Network e Pnuts.AI cover
há 3 dias
W2140 EXPO Destaca Inovações da Titan Network e Pnuts.AI
Em 12 de novembro de 2024, o W2140 EXPO, uma conferência global de IA e Web3 de destaque, foi inaugurado em Bangkok. Co-organizado pela Associação de Negócios Asiáticos da Tailândia e pelo governo tailandês, o evento atraiu a participação de mais de 1.000 organizações e mais de 200.000 participantes, marcando-o como a maior conferência do tipo. Durante o evento, membros da equipe central da Titan Network se envolveram em discussões significativas com funcionários da ONU e o Dr. James Ong, um renomado acadêmico e fundador do Instituto Internacional de Inteligência Artificial (AIII). O discurso de abertura do Dr. Ong, intitulado "IA e Web para a Humanidade da Maioria Global", enfatizou a importância das tecnologias descentralizadas no cenário moderno. O Dr. Ong destacou a Titan Network e seu parceiro do ecossistema, Pnuts.AI, como modelos exemplares dentro das estruturas AIDePIN e AIDeHIN. Ele elogiou a Titan por desenvolver uma rede de infraestrutura física descentralizada (DePIN) que utiliza blockchain para aproveitar recursos ociosos. Essa inovação oferece uma alternativa descentralizada, segura e transparente aos serviços de nuvem tradicionais, podendo economizar até 96% em custos. Além disso, ele elogiou a Pnuts.AI por ser a ferramenta de tradução em tempo real mais poderosa disponível, projetada para derrubar barreiras linguísticas usando tecnologias de IA e Web3, proporcionando traduções rápidas e precisas de fala para fala em mais de 200 idiomas. Além disso, o Dr. Ong discutiu o potencial futuro da Pnuts.AI como um projeto Web3 de destaque, imaginando uma integração perfeita de IA, Web3 e DeHIN. Nesta abordagem, os principais especialistas em linguagem humana colaborarão com sistemas de IA para melhorar significativamente a precisão das traduções. Esses especialistas também fornecerão materiais extensivos de treinamento digital para aprimorar os modelos de tradução, enquanto mecanismos Web3 incentivarão esforços cooperativos entre humanos e IA, promovendo um robusto ecossistema de aplicações de IA-Web3. Essa integração promete revolucionar a forma como abordamos a tradução de idiomas e a comunicação em um mundo globalizado.
Revolucionando a Eficiência da IA: O Impacto do Algoritmo L-Mul cover
há 5 dias
Revolucionando a Eficiência da IA: O Impacto do Algoritmo L-Mul
O rápido desenvolvimento da inteligência artificial (IA) levou a avanços significativos em vários setores, mas vem com um alto custo ambiental devido ao seu elevado consumo de energia. Modelos de IA, particularmente aqueles que utilizam redes neurais, requerem um poder computacional substancial, o que se traduz em um enorme uso de eletricidade. Por exemplo, executar o ChatGPT no início de 2023 consumiu aproximadamente 564 MWh de eletricidade diariamente, equivalente às necessidades energéticas de cerca de 18.000 lares nos EUA. Essa demanda de energia é impulsionada principalmente por operações complexas de ponto flutuante essenciais para os cálculos de redes neurais, tornando a busca por soluções energeticamente eficientes crítica à medida que os sistemas de IA se tornam mais complexos. Surge então o algoritmo L-Mul (Multiplicação de Complexidade Linear), um desenvolvimento inovador que promete reduzir significativamente o fardo energético associado aos cálculos de IA. O L-Mul opera aproximando multiplicações de ponto flutuante com adições inteiras mais simples, que podem ser integradas em modelos de IA existentes sem a necessidade de ajuste fino. Essa abordagem inovadora demonstrou economias de energia notáveis, alcançando até 95% de redução no consumo de energia para multiplicações de tensores elemento a elemento e 80% para cálculos de produto escalar. Importante, essa eficiência energética não compromete a precisão dos modelos de IA, marcando um avanço significativo na busca por uma IA sustentável. As implicações do L-Mul vão além da simples economia de energia; ele melhora o desempenho dos modelos de IA em várias aplicações, incluindo modelos de transformadores e grandes modelos de linguagem (LLMs). Em benchmarks como GSM8k e tarefas de resposta a perguntas visuais, o L-Mul superou formatos tradicionais de ponto flutuante como o FP8, demonstrando seu potencial para lidar com cálculos complexos de forma eficiente. À medida que a demanda por IA continua a crescer, o L-Mul se destaca como uma solução fundamental que não apenas aborda a crise energética associada à IA, mas também abre caminho para um futuro mais sustentável no desenvolvimento tecnológico.
Integrando OpenAI com Solana Usando o Lit Protocol cover
há 5 dias
Integrando OpenAI com Solana Usando o Lit Protocol
Em uma integração inovadora, o Lit Protocol demonstrou como combinar de forma segura as capacidades da OpenAI e da blockchain Solana. Ao utilizar Chaves Envolvidas na Solana, os desenvolvedores podem assinar respostas geradas pela API da OpenAI dentro de uma Ação Lit. Essa integração abre um sem-fim de aplicações inovadoras, particularmente no campo de agentes autônomos impulsionados por IA. Esses agentes podem operar na blockchain sem expor chaves de API sensíveis, graças aos Pares de Chaves Programáveis (PKPs) baseados em limiares e Ambientes de Execução Confiáveis (TEEs) do Lit. Isso garante que todas as operações sensíveis permaneçam protegidas, permitindo que agentes de IA interajam com serviços web tradicionais e com a blockchain, mantendo identidades descentralizadas. A integração também enfatiza a importância da computação privada e do processamento de dados. Ao criptografar dados e executar prompts de modelos de linguagem de grande escala (LLMs) dentro do TEE do Lit, os desenvolvedores podem garantir que informações sensíveis, como registros médicos ou dados financeiros, permaneçam seguras durante todo o processo. O TEE fornece isolamento em nível de hardware, o que significa que até mesmo os operadores de nós não podem acessar dados descriptografados. Essa criptografia de ponta a ponta permite o processamento seguro de informações privadas, garantindo que todos os cálculos ocorram dentro de um ambiente seguro antes que os resultados sejam recriptografados e enviados de volta. Além disso, a integração facilita a geração de provas criptográficas para treinamento e inferência. Ao restringir as permissões de assinatura PKP a hashes CID IPFS específicos, os desenvolvedores podem garantir a autenticidade do conteúdo gerado pelo LLM. Esse sistema de prova é particularmente benéfico para trilhas de auditoria e requisitos de conformidade, pois permite que terceiros verifiquem a autenticidade do conteúdo produzido pelo LLM. No geral, essa integração demonstra o potencial de combinar IA com tecnologia blockchain, abrindo caminho para aplicações mais seguras e eficientes no futuro.
Stratos se une à DeepSouth AI para aprimorar aplicações Web3 cover
há 5 dias
Stratos se une à DeepSouth AI para aprimorar aplicações Web3
A Stratos anunciou uma parceria empolgante com a DeepSouth AI, um jogador proeminente no campo da inteligência artificial que utiliza tecnologia de computação neuromórfica. Esta colaboração visa fundir as capacidades de IA de ponta da DeepSouth AI com as soluções de infraestrutura descentralizada da Stratos. O objetivo é criar aplicações descentralizadas mais inteligentes e acessíveis dentro do ecossistema Web3, aprimorando a funcionalidade geral e a experiência do usuário dessas aplicações. A DeepSouth AI está em processo de desenvolvimento de uma plataforma versátil equipada com um conjunto abrangente de poderosas ferramentas de IA. Essas ferramentas são projetadas especificamente para ajudar desenvolvedores e empresas a implementar soluções avançadas de IA. Ao integrar-se à infraestrutura robusta e escalável da Stratos, a DeepSouth AI se beneficiará de uma solução de armazenamento descentralizada que oferece confiabilidade, segurança e desempenho, essenciais para suportar aplicações impulsionadas por IA de alta demanda. Por meio dessa colaboração estratégica, a Stratos está pronta para fornecer a infraestrutura descentralizada necessária para atender às altas demandas de dados da plataforma da DeepSouth AI. Esta parceria está prestes a inaugurar uma nova era de aplicações Web3, onde a inteligência artificial e a tecnologia descentralizada podem trabalhar em harmonia, impulsionando a inovação e a acessibilidade no cenário digital.
io.net e NovaNet se unem para aprimorar a verificação de GPU com zkGPU-ID cover
há 6 dias
io.net e NovaNet se unem para aprimorar a verificação de GPU com zkGPU-ID
Em um movimento significativo para aumentar a segurança e a confiabilidade nas redes de computação descentralizada, a io.net, uma rede de infraestrutura física descentralizada (DePIN) especializada em clusters de GPU, formou uma parceria com a NovaNet, líder em provas de conhecimento zero (ZKPs). Esta colaboração visa desenvolver uma solução inovadora conhecida como identificação de GPU de conhecimento zero (zkGPU-ID), que fornecerá garantias criptográficas sobre a autenticidade e o desempenho dos recursos de GPU. Ao aproveitar a tecnologia avançada de ZKP da NovaNet, a io.net poderá validar que as GPUs utilizadas em sua plataforma descentralizada não apenas atendem, mas potencialmente superam suas especificações anunciadas, aumentando assim a confiança do usuário e a confiabilidade dos recursos. Tausif Ahmed, VP de Desenvolvimento de Negócios da io.net, enfatizou a importância dessa parceria, afirmando que otimizar a coordenação e a verificação em uma vasta rede de fornecedores de GPU distribuídos é crucial para construir uma rede de computação descentralizada pronta para empresas e sem permissão. A integração do zkGPU-ID da NovaNet permitirá que a io.net valide e teste continuamente seus recursos de GPU em escala global, garantindo que os clientes possam alugar GPUs de forma confiável que atendam às suas necessidades especificadas. Esta iniciativa representa um avanço significativo na infraestrutura de computação descentralizada, visando aliviar preocupações sobre a autenticidade e o desempenho dos recursos. Além disso, o protocolo zkGPU-ID utiliza a tecnologia zkVM (máquina virtual de conhecimento zero) da NovaNet, que desempenha um papel vital na geração e verificação de provas criptográficas das especificações de GPU a custos mais baixos. Wyatt Benno, cofundador técnico da NovaNet, destacou a necessidade de ZKPs operando em vários dispositivos e contextos para privacidade e verificabilidade local. O zkEngine da NovaNet testa rigorosamente e identifica GPUs dentro da plataforma da io.net, criando um ZKP que garante a integridade da GPU. Esta parceria estabelece um novo padrão de transparência, confiabilidade e segurança em redes de computação GPU descentralizadas, marcando um passo crucial para a indústria.
Falcon Mamba 7B: Um Avanço em Modelos de IA Sem Atenção cover
há 7 dias
Falcon Mamba 7B: Um Avanço em Modelos de IA Sem Atenção
A rápida evolução da inteligência artificial (IA) é significativamente influenciada pelo surgimento de modelos sem atenção, com o Falcon Mamba 7B sendo um exemplo notável. Desenvolvido pelo Instituto de Inovação Tecnológica (TII) em Abu Dhabi, este modelo inovador se afasta das arquiteturas tradicionais baseadas em Transformadores que dependem fortemente de mecanismos de atenção. Em vez disso, o Falcon Mamba 7B utiliza Modelos de Espaço de Estado (SSMs), que proporcionam inferência mais rápida e eficiente em termos de memória, abordando os desafios computacionais associados a tarefas de longo contexto. Ao treinar em um extenso conjunto de dados de 5,5 trilhões de tokens, o Falcon Mamba 7B se posiciona como uma alternativa competitiva a modelos existentes como o Gemma do Google e o Phi da Microsoft. A arquitetura do Falcon Mamba 7B é projetada para manter um custo de inferência constante, independentemente do comprimento da entrada, resolvendo efetivamente o problema de escalonamento quadrático que aflige os modelos de Transformador. Essa capacidade única permite que ele se destaque em aplicações que requerem processamento de longo contexto, como resumo de documentos e automação de atendimento ao cliente. Embora tenha demonstrado desempenho superior em vários benchmarks de processamento de linguagem natural, ainda enfrenta limitações em tarefas que exigem compreensão contextual intrincada. No entanto, sua eficiência de memória e velocidade o tornam uma escolha atraente para organizações que buscam otimizar suas soluções de IA. As implicações do Falcon Mamba 7B vão além de meras métricas de desempenho. Seu suporte à quantização permite uma implantação eficiente em GPUs e CPUs, aumentando ainda mais sua versatilidade. À medida que o cenário da IA evolui, o sucesso do Falcon Mamba 7B sugere que os modelos sem atenção podem em breve se tornar o padrão para muitas aplicações. Com pesquisa e desenvolvimento contínuos, esses modelos poderiam potencialmente superar arquiteturas tradicionais em velocidade e precisão, abrindo caminho para aplicações inovadoras em várias indústrias.