Network3 Anuncia la Nueva Función del Modelo de Lenguaje Grande Local (LLM)

jueves, octubre 3, 2024 3:44 PM
15,244
Network3 Anuncia la Nueva Función del Modelo de Lenguaje Grande Local (LLM) cover

Network3, una plataforma de capa de IA Layer2 para desarrolladores globales de inteligencia artificial, presentó recientemente su última innovación en la Cumbre del Mundo R3al en Singapur. La nueva función de Modelo de Lenguaje Grande Local (LLM) está diseñada para mejorar la eficiencia y el rendimiento de la tecnología de IA Edge. La IA Edge implica desplegar modelos de IA directamente en dispositivos locales como teléfonos inteligentes, acercando el procesamiento de datos a la fuente para mejorar el rendimiento de la aplicación y reducir la latencia. Se proyecta que el mercado global de IA Edge supere los 269 mil millones de dólares en los próximos ocho años, destacando la creciente importancia de esta tecnología.

Transformando Dispositivos Inteligentes en Activos de Entrenamiento de IA

Con un enfoque en hacer accesibles las tecnologías Web3 y AI, Network3 integra DePIN con IA para permitir que los dispositivos IoT entrenen pequeños modelos de IA. Al aprovechar los recursos inactivos en dispositivos inteligentes, las personas pueden participar en el entrenamiento de IA y ganar recompensas. La introducción de la función LLM local tiene como objetivo optimizar las capacidades de procesamiento de los dispositivos inteligentes durante los tiempos de inactividad, reduciendo la dependencia de la computación en la nube, disminuyendo el uso de ancho de banda y mejorando la seguridad y privacidad de los datos. Network3, con más de 320,000 nodos activos a nivel mundial, lanzó recientemente el dispositivo minero N3 Edge V1, que ofrece capacidades de minería dual para tokens IoTeX y Network3.

Ofreciendo Servicios de Chat de IA en Dispositivos Móviles

La última actualización de Network3 permite a los usuarios acceder a servicios de chat de IA en sus dispositivos móviles sin la necesidad de una costosa infraestructura en la nube. Una versión de prueba de la actualización estará disponible para su descarga en el sitio web oficial pronto, brindando a los usuarios la oportunidad de interactuar con el modelo, ganar tokens y personalizar su experiencia de IA.

Related News

W2140 EXPO destaca las innovaciones de Titan Network y Pnuts.AI cover
hace 3 días
W2140 EXPO destaca las innovaciones de Titan Network y Pnuts.AI
El 12 de noviembre de 2024, se inauguró la W2140 EXPO, una conferencia global de IA y Web3 de primer nivel, en Bangkok. Coorganizado por la Asociación Empresarial Asiática de Tailandia y el gobierno tailandés, el evento atrajo la participación de más de 1,000 organizaciones y más de 200,000 asistentes, marcándolo como la conferencia más grande de su tipo. Durante el evento, los miembros del equipo central de Titan Network participaron en discusiones significativas con el personal de la ONU y el Dr. James Ong, un destacado académico y fundador del Instituto Internacional de Inteligencia Artificial (AIII). El discurso principal del Dr. Ong, titulado "IA y Web para la Humanidad de la Mayoría Global", enfatizó la importancia de las tecnologías descentralizadas en el panorama moderno. El Dr. Ong destacó a Titan Network y su socio del ecosistema, Pnuts.AI, como modelos ejemplares dentro de los marcos AIDePIN y AIDeHIN. Elogió a Titan por desarrollar una red de infraestructura física descentralizada (DePIN) que aprovecha la blockchain para utilizar recursos ociosos. Esta innovación ofrece una alternativa descentralizada, segura y transparente a los servicios en la nube tradicionales, lo que podría ahorrar hasta un 96% en costos. Además, elogió a Pnuts.AI por ser la herramienta de traducción en tiempo real más poderosa disponible, diseñada para derribar barreras lingüísticas utilizando tecnologías de IA y Web3, proporcionando traducciones rápidas y precisas de voz a voz en más de 200 idiomas. Además, el Dr. Ong discutió el potencial futuro de Pnuts.AI como un destacado proyecto de Web3, imaginando una integración fluida de IA, Web3 y DeHIN. En este enfoque, los principales expertos en lenguas humanas colaborarán con sistemas de IA para mejorar significativamente la precisión de las traducciones. Estos expertos también proporcionarán amplios materiales de capacitación digital para mejorar los modelos de traducción, mientras que los mecanismos de Web3 incentivarán los esfuerzos cooperativos entre humanos e IA, fomentando un robusto ecosistema de aplicaciones de IA-Web3. Esta integración promete revolucionar la forma en que abordamos la traducción de idiomas y la comunicación en un mundo globalizado.
Revolucionando la Eficiencia de la IA: El Impacto del Algoritmo L-Mul cover
hace 5 días
Revolucionando la Eficiencia de la IA: El Impacto del Algoritmo L-Mul
El rápido desarrollo de la inteligencia artificial (IA) ha llevado a avances significativos en varios sectores, pero viene con un alto costo ambiental debido a su alto consumo de energía. Los modelos de IA, particularmente aquellos que utilizan redes neuronales, requieren una potencia computacional sustancial, lo que se traduce en un enorme uso de electricidad. Por ejemplo, ejecutar ChatGPT a principios de 2023 consumió aproximadamente 564 MWh de electricidad diariamente, equivalente a las necesidades energéticas de alrededor de 18,000 hogares en EE. UU. Esta demanda de energía es impulsada principalmente por operaciones complejas de punto flotante esenciales para los cálculos de redes neuronales, lo que hace que la búsqueda de soluciones energéticamente eficientes sea crítica a medida que los sistemas de IA crecen en complejidad. Aquí entra el algoritmo L-Mul (Multiplicación de Complejidad Lineal), un desarrollo innovador que promete reducir significativamente la carga energética asociada con los cálculos de IA. L-Mul opera aproximando multiplicaciones de punto flotante con sumas de enteros más simples, que se pueden integrar en modelos de IA existentes sin necesidad de ajuste fino. Este enfoque innovador ha demostrado ahorros de energía notables, logrando hasta un 95% de reducción en el consumo de energía para multiplicaciones de tensores elemento a elemento y un 80% para cálculos de productos punto. Es importante destacar que esta eficiencia energética no compromete la precisión de los modelos de IA, marcando un avance significativo en la búsqueda de una IA sostenible. Las implicaciones de L-Mul van más allá de simples ahorros de energía; mejora el rendimiento de los modelos de IA en diversas aplicaciones, incluidos modelos de transformadores y grandes modelos de lenguaje (LLMs). En benchmarks como GSM8k y tareas de preguntas y respuestas visuales, L-Mul ha superado formatos tradicionales de punto flotante como FP8, mostrando su potencial para manejar cálculos complejos de manera eficiente. A medida que la demanda de IA continúa en aumento, L-Mul se destaca como una solución clave que no solo aborda la crisis energética asociada con la IA, sino que también allana el camino hacia un futuro más sostenible en el desarrollo tecnológico.
Integración de OpenAI con Solana utilizando el Protocolo Lit cover
hace 5 días
Integración de OpenAI con Solana utilizando el Protocolo Lit
En una integración innovadora, el Protocolo Lit ha demostrado cómo combinar de manera segura las capacidades de OpenAI y la blockchain de Solana. Al utilizar Wrapped Keys en Solana, los desarrolladores pueden firmar respuestas generadas por la API de OpenAI dentro de una Acción Lit. Esta integración abre un sinfín de aplicaciones innovadoras, particularmente en el ámbito de los agentes autónomos impulsados por IA. Estos agentes pueden operar en la blockchain sin exponer claves API sensibles, gracias a los Pares de Claves Programables (PKPs) basados en umbrales y los Entornos de Ejecución Confiables (TEE) de Lit. Esto garantiza que todas las operaciones sensibles permanezcan protegidas, permitiendo que los agentes de IA interactúen tanto con la blockchain como con servicios web tradicionales mientras mantienen identidades descentralizadas. La integración también enfatiza la importancia de la computación privada y el procesamiento de datos. Al cifrar datos y ejecutar grandes modelos de lenguaje (LLM) dentro del TEE de Lit, los desarrolladores pueden garantizar que la información sensible, como registros médicos o datos financieros, permanezca segura durante todo el proceso. El TEE proporciona aislamiento a nivel de hardware, lo que significa que incluso los operadores de nodos no pueden acceder a datos descifrados. Esta cifrado de extremo a extremo permite el procesamiento seguro de información privada, asegurando que todos los cálculos se realicen dentro de un entorno seguro antes de que los resultados sean cifrados nuevamente y enviados de vuelta. Además, la integración facilita la generación de pruebas criptográficas para el entrenamiento y la inferencia. Al restringir los permisos de firma de PKP a hashes CID específicos de IPFS, los desarrolladores pueden garantizar la autenticidad del contenido generado por LLM. Este sistema de pruebas es particularmente beneficioso para las auditorías y los requisitos de cumplimiento, ya que permite a terceros verificar la autenticidad del contenido producido por la LLM. En general, esta integración muestra el potencial de combinar la IA con la tecnología blockchain, allanando el camino para aplicaciones más seguras y eficientes en el futuro.
Stratos se asocia con DeepSouth AI para mejorar las aplicaciones Web3 cover
hace 5 días
Stratos se asocia con DeepSouth AI para mejorar las aplicaciones Web3
Stratos ha anunciado una emocionante asociación con DeepSouth AI, un actor destacado en el campo de la inteligencia artificial que utiliza tecnología de computación neuromórfica. Esta colaboración tiene como objetivo fusionar las capacidades de inteligencia artificial de vanguardia de DeepSouth AI con las soluciones de infraestructura descentralizada de Stratos. El objetivo es crear aplicaciones descentralizadas más inteligentes y accesibles dentro del ecosistema Web3, mejorando la funcionalidad general y la experiencia del usuario de estas aplicaciones. DeepSouth AI está en proceso de desarrollar una plataforma versátil que está equipada con un conjunto integral de potentes herramientas de inteligencia artificial. Estas herramientas están diseñadas específicamente para ayudar a desarrolladores y empresas a implementar soluciones avanzadas de inteligencia artificial. Al integrarse con la infraestructura robusta y escalable de Stratos, DeepSouth AI se beneficiará de una solución de almacenamiento descentralizada que ofrece confiabilidad, seguridad y rendimiento, esenciales para respaldar aplicaciones impulsadas por inteligencia artificial de alta demanda. A través de esta colaboración estratégica, Stratos está preparado para proporcionar la infraestructura descentralizada necesaria para satisfacer las necesidades de datos de alto volumen de la plataforma de DeepSouth AI. Esta asociación está lista para inaugurar una nueva era de aplicaciones Web3, donde la inteligencia artificial y la tecnología descentralizada pueden trabajar en armonía, impulsando en última instancia la innovación y la accesibilidad en el panorama digital.
io.net y NovaNet se asocian para mejorar la verificación de GPU con zkGPU-ID cover
hace 6 días
io.net y NovaNet se asocian para mejorar la verificación de GPU con zkGPU-ID
En un movimiento significativo para mejorar la seguridad y la confiabilidad en las redes de computación descentralizadas, io.net, una red de infraestructura física descentralizada (DePIN) especializada en clústeres de GPU, ha formado una asociación con NovaNet, un líder en pruebas de conocimiento cero (ZKPs). Esta colaboración tiene como objetivo desarrollar una solución innovadora conocida como identificación de GPU de conocimiento cero (zkGPU-ID), que proporcionará garantías criptográficas sobre la autenticidad y el rendimiento de los recursos de GPU. Al aprovechar la avanzada tecnología ZKP de NovaNet, io.net podrá validar que las GPUs utilizadas dentro de su plataforma descentralizada no solo cumplen, sino que potencialmente superan sus especificaciones anunciadas, mejorando así la confianza del usuario y la confiabilidad de los recursos. Tausif Ahmed, VP de Desarrollo Comercial en io.net, enfatizó la importancia de esta asociación, afirmando que optimizar la coordinación y verificación a través de una vasta red de proveedores de GPU distribuidos es crucial para construir una red de computación descentralizada lista para empresas y sin permisos. La integración del zkGPU-ID de NovaNet permitirá a io.net validar y probar continuamente sus recursos de GPU a escala global, asegurando que los clientes puedan alquilar GPUs que sean confiables y que cumplan con sus necesidades específicas. Esta iniciativa representa un avance significativo en la infraestructura de computación descentralizada, con el objetivo de aliviar las preocupaciones sobre la autenticidad y el rendimiento de los recursos. Además, el protocolo zkGPU-ID utiliza la tecnología zkVM (máquina virtual de conocimiento cero) de NovaNet, que desempeña un papel vital en la generación y verificación de pruebas criptográficas de las especificaciones de GPU a costos más bajos. Wyatt Benno, cofundador técnico de NovaNet, destacó la necesidad de que los ZKPs operen en varios dispositivos y contextos para la privacidad y la verificabilidad local. El zkEngine de NovaNet prueba e identifica rigurosamente las GPUs dentro de la plataforma de io.net, creando un ZKP que asegura la integridad de las GPUs. Esta asociación establece un nuevo estándar para la transparencia, confiabilidad y seguridad en las redes de computación de GPU descentralizadas, marcando un paso crucial hacia adelante en la industria.
Falcon Mamba 7B: Un avance en modelos de IA sin atención cover
hace 7 días
Falcon Mamba 7B: Un avance en modelos de IA sin atención
La rápida evolución de la inteligencia artificial (IA) se ve significativamente influenciada por la aparición de modelos sin atención, siendo Falcon Mamba 7B un ejemplo notable. Desarrollado por el Technology Innovation Institute (TII) en Abu Dhabi, este modelo innovador se aparta de las arquitecturas tradicionales basadas en Transformers que dependen en gran medida de los mecanismos de atención. En su lugar, Falcon Mamba 7B utiliza Modelos de Espacio de Estado (SSMs), que proporcionan una inferencia más rápida y eficiente en memoria, abordando los desafíos computacionales asociados con tareas de contexto largo. Al entrenar con un extenso conjunto de datos de 5.5 billones de tokens, Falcon Mamba 7B se posiciona como una alternativa competitiva a modelos existentes como Gemma de Google y Phi de Microsoft. La arquitectura de Falcon Mamba 7B está diseñada para mantener un costo de inferencia constante, independientemente de la longitud de la entrada, resolviendo efectivamente el problema de escalado cuadrático que afecta a los modelos Transformer. Esta capacidad única le permite sobresalir en aplicaciones que requieren procesamiento de contexto largo, como la resumición de documentos y la automatización del servicio al cliente. Si bien ha demostrado un rendimiento superior en varios benchmarks de procesamiento de lenguaje natural, aún enfrenta limitaciones en tareas que exigen una comprensión contextual intrincada. Sin embargo, su eficiencia de memoria y velocidad lo convierten en una opción atractiva para organizaciones que buscan optimizar sus soluciones de IA. Las implicaciones de Falcon Mamba 7B van más allá de las métricas de rendimiento. Su soporte para cuantización permite un despliegue eficiente tanto en GPUs como en CPUs, mejorando aún más su versatilidad. A medida que el panorama de la IA evoluciona, el éxito de Falcon Mamba 7B sugiere que los modelos sin atención podrían convertirse pronto en el estándar para muchas aplicaciones. Con la investigación y el desarrollo en curso, estos modelos podrían superar potencialmente a las arquitecturas tradicionales en velocidad y precisión, allanando el camino para aplicaciones innovadoras en diversas industrias.