Temas de Tendencia
Últimas Noticias DePIN IA
Ver Proyectos de IAhace 3 días
Stratos se asocia con DeepSouth AI para mejorar las aplicaciones Web3
Stratos ha anunciado una emocionante asociación con DeepSouth AI, un actor destacado en el campo de la inteligencia artificial que utiliza tecnología de computación neuromórfica. Esta colaboración tiene como objetivo fusionar las capacidades de inteligencia artificial de vanguardia de DeepSouth AI con las soluciones de infraestructura descentralizada de Stratos. El objetivo es crear aplicaciones descentralizadas más inteligentes y accesibles dentro del ecosistema Web3, mejorando la funcionalidad general y la experiencia del usuario de estas aplicaciones.
DeepSouth AI está en proceso de desarrollar una plataforma versátil que está equipada con un conjunto integral de potentes herramientas de inteligencia artificial. Estas herramientas están diseñadas específicamente para ayudar a desarrolladores y empresas a implementar soluciones avanzadas de inteligencia artificial. Al integrarse con la infraestructura robusta y escalable de Stratos, DeepSouth AI se beneficiará de una solución de almacenamiento descentralizada que ofrece confiabilidad, seguridad y rendimiento, esenciales para respaldar aplicaciones impulsadas por inteligencia artificial de alta demanda.
A través de esta colaboración estratégica, Stratos está preparado para proporcionar la infraestructura descentralizada necesaria para satisfacer las necesidades de datos de alto volumen de la plataforma de DeepSouth AI. Esta asociación está lista para inaugurar una nueva era de aplicaciones Web3, donde la inteligencia artificial y la tecnología descentralizada pueden trabajar en armonía, impulsando en última instancia la innovación y la accesibilidad en el panorama digital.
hace 3 días
Revolucionando la Eficiencia de la IA: El Impacto del Algoritmo L-Mul
El rápido desarrollo de la inteligencia artificial (IA) ha llevado a avances significativos en varios sectores, pero viene con un alto costo ambiental debido a su alto consumo de energía. Los modelos de IA, particularmente aquellos que utilizan redes neuronales, requieren una potencia computacional sustancial, lo que se traduce en un enorme uso de electricidad. Por ejemplo, ejecutar ChatGPT a principios de 2023 consumió aproximadamente 564 MWh de electricidad diariamente, equivalente a las necesidades energéticas de alrededor de 18,000 hogares en EE. UU. Esta demanda de energía es impulsada principalmente por operaciones complejas de punto flotante esenciales para los cálculos de redes neuronales, lo que hace que la búsqueda de soluciones energéticamente eficientes sea crítica a medida que los sistemas de IA crecen en complejidad.
Aquí entra el algoritmo L-Mul (Multiplicación de Complejidad Lineal), un desarrollo innovador que promete reducir significativamente la carga energética asociada con los cálculos de IA. L-Mul opera aproximando multiplicaciones de punto flotante con sumas de enteros más simples, que se pueden integrar en modelos de IA existentes sin necesidad de ajuste fino. Este enfoque innovador ha demostrado ahorros de energía notables, logrando hasta un 95% de reducción en el consumo de energía para multiplicaciones de tensores elemento a elemento y un 80% para cálculos de productos punto. Es importante destacar que esta eficiencia energética no compromete la precisión de los modelos de IA, marcando un avance significativo en la búsqueda de una IA sostenible.
Las implicaciones de L-Mul van más allá de simples ahorros de energía; mejora el rendimiento de los modelos de IA en diversas aplicaciones, incluidos modelos de transformadores y grandes modelos de lenguaje (LLMs). En benchmarks como GSM8k y tareas de preguntas y respuestas visuales, L-Mul ha superado formatos tradicionales de punto flotante como FP8, mostrando su potencial para manejar cálculos complejos de manera eficiente. A medida que la demanda de IA continúa en aumento, L-Mul se destaca como una solución clave que no solo aborda la crisis energética asociada con la IA, sino que también allana el camino hacia un futuro más sostenible en el desarrollo tecnológico.
hace 3 días
Integración de OpenAI con Solana utilizando el Protocolo Lit
En una integración innovadora, el Protocolo Lit ha demostrado cómo combinar de manera segura las capacidades de OpenAI y la blockchain de Solana. Al utilizar Wrapped Keys en Solana, los desarrolladores pueden firmar respuestas generadas por la API de OpenAI dentro de una Acción Lit. Esta integración abre un sinfín de aplicaciones innovadoras, particularmente en el ámbito de los agentes autónomos impulsados por IA. Estos agentes pueden operar en la blockchain sin exponer claves API sensibles, gracias a los Pares de Claves Programables (PKPs) basados en umbrales y los Entornos de Ejecución Confiables (TEE) de Lit. Esto garantiza que todas las operaciones sensibles permanezcan protegidas, permitiendo que los agentes de IA interactúen tanto con la blockchain como con servicios web tradicionales mientras mantienen identidades descentralizadas.
La integración también enfatiza la importancia de la computación privada y el procesamiento de datos. Al cifrar datos y ejecutar grandes modelos de lenguaje (LLM) dentro del TEE de Lit, los desarrolladores pueden garantizar que la información sensible, como registros médicos o datos financieros, permanezca segura durante todo el proceso. El TEE proporciona aislamiento a nivel de hardware, lo que significa que incluso los operadores de nodos no pueden acceder a datos descifrados. Esta cifrado de extremo a extremo permite el procesamiento seguro de información privada, asegurando que todos los cálculos se realicen dentro de un entorno seguro antes de que los resultados sean cifrados nuevamente y enviados de vuelta.
Además, la integración facilita la generación de pruebas criptográficas para el entrenamiento y la inferencia. Al restringir los permisos de firma de PKP a hashes CID específicos de IPFS, los desarrolladores pueden garantizar la autenticidad del contenido generado por LLM. Este sistema de pruebas es particularmente beneficioso para las auditorías y los requisitos de cumplimiento, ya que permite a terceros verificar la autenticidad del contenido producido por la LLM. En general, esta integración muestra el potencial de combinar la IA con la tecnología blockchain, allanando el camino para aplicaciones más seguras y eficientes en el futuro.
hace 4 días
io.net y NovaNet se asocian para mejorar la verificación de GPU con zkGPU-ID
En un movimiento significativo para mejorar la seguridad y la confiabilidad en las redes de computación descentralizadas, io.net, una red de infraestructura física descentralizada (DePIN) especializada en clústeres de GPU, ha formado una asociación con NovaNet, un líder en pruebas de conocimiento cero (ZKPs). Esta colaboración tiene como objetivo desarrollar una solución innovadora conocida como identificación de GPU de conocimiento cero (zkGPU-ID), que proporcionará garantías criptográficas sobre la autenticidad y el rendimiento de los recursos de GPU. Al aprovechar la avanzada tecnología ZKP de NovaNet, io.net podrá validar que las GPUs utilizadas dentro de su plataforma descentralizada no solo cumplen, sino que potencialmente superan sus especificaciones anunciadas, mejorando así la confianza del usuario y la confiabilidad de los recursos.
Tausif Ahmed, VP de Desarrollo Comercial en io.net, enfatizó la importancia de esta asociación, afirmando que optimizar la coordinación y verificación a través de una vasta red de proveedores de GPU distribuidos es crucial para construir una red de computación descentralizada lista para empresas y sin permisos. La integración del zkGPU-ID de NovaNet permitirá a io.net validar y probar continuamente sus recursos de GPU a escala global, asegurando que los clientes puedan alquilar GPUs que sean confiables y que cumplan con sus necesidades específicas. Esta iniciativa representa un avance significativo en la infraestructura de computación descentralizada, con el objetivo de aliviar las preocupaciones sobre la autenticidad y el rendimiento de los recursos.
Además, el protocolo zkGPU-ID utiliza la tecnología zkVM (máquina virtual de conocimiento cero) de NovaNet, que desempeña un papel vital en la generación y verificación de pruebas criptográficas de las especificaciones de GPU a costos más bajos. Wyatt Benno, cofundador técnico de NovaNet, destacó la necesidad de que los ZKPs operen en varios dispositivos y contextos para la privacidad y la verificabilidad local. El zkEngine de NovaNet prueba e identifica rigurosamente las GPUs dentro de la plataforma de io.net, creando un ZKP que asegura la integridad de las GPUs. Esta asociación establece un nuevo estándar para la transparencia, confiabilidad y seguridad en las redes de computación de GPU descentralizadas, marcando un paso crucial hacia adelante en la industria.
hace 5 días
Dogecoin mantiene liquidez en medio de cambios en el mercado, Bittensor enfrenta desafíos
En el actual panorama de criptomonedas, Dogecoin (DOGE) ha demostrado una notable resiliencia al mantener una liquidez constante a pesar de las fluctuaciones del mercado. Tras las recientes elecciones en EE. UU., hubo un aumento significativo en la actividad de los grandes tenedores, o ballenas, con flujos netos de ballenas que aumentaron casi un 957%. Este aumento resultó en que las transacciones se dispararan de aproximadamente 45 millones a más de 430 millones de DOGE en solo un día. Aunque el precio de Dogecoin experimentó un breve aumento de alrededor del 10% durante el período electoral, luego cayó alrededor del 6%, estabilizándose en un nivel ligeramente más bajo. Sin embargo, su volumen de comercio sigue siendo robusto, con más de 3.8 mil millones de dólares y una capitalización de mercado cercana a los 29 mil millones de dólares, lo que subraya su fuerte presencia en el mercado y el interés continuo de los grandes inversores.
Por otro lado, Bittensor (TAO) enfrenta desafíos a medida que experimenta una disminución en la liquidez, lo que genera preocupaciones entre sus inversores. Con una capitalización de mercado de alrededor de 3.7 mil millones de dólares y un volumen de comercio diario de aproximadamente 165 millones de dólares, la actividad comercial reducida indica un cambio en el compromiso de los inversores. Actualmente, hay alrededor de 7.4 millones de tokens TAO en circulación de un suministro máximo de 21 millones. La caída en la liquidez podría llevar a una mayor volatilidad de precios, lo que hace crucial que los inversores monitoreen estas tendencias de cerca. Un continuo descenso podría afectar el valor del token y su atractivo general para los posibles inversores.
En contraste, IntelMarkets (INTL) está surgiendo como una alternativa prometedora en el ámbito del comercio de criptomonedas, con una plataforma de comercio impulsada por IA única construida sobre una blockchain moderna. Actualmente en la Etapa 5 de su preventa, IntelMarkets ha recaudado alrededor de 2 millones de dólares, con casi 10 millones de tokens vendidos a un precio de 0.045 Tether, que se espera que aumente a aproximadamente 0.054. Los bots de autoaprendizaje de la plataforma procesan más de 100,000 puntos de datos, lo que permite a los comerciantes tomar decisiones informadas basadas en datos en tiempo real. Con su suministro limitado de tokens y tecnología avanzada, IntelMarkets se posiciona como una plataforma estratégica para los inversores que buscan un crecimiento constante y estabilidad en un mercado volátil.
hace 5 días
Stratos se asocia con MetaTrust Labs para mejorar la seguridad de Web3
En un desarrollo significativo para el ecosistema Web3, Stratos ha anunciado una asociación con MetaTrust Labs, un proveedor líder de herramientas de seguridad de IA para Web3 y servicios de auditoría de código. Esta colaboración está destinada a mejorar la seguridad y la resiliencia de las aplicaciones Web3 al fusionar medidas de seguridad avanzadas impulsadas por IA con las soluciones de almacenamiento descentralizado de Stratos. La asociación tiene como objetivo crear una infraestructura robusta que no solo proteja los datos, sino que también garantice la fiabilidad y eficiencia de las aplicaciones Web3, un aspecto crucial tanto para desarrolladores como para usuarios.
MetaTrust Labs, que fue incubada en la Universidad Tecnológica de Nanyang en Singapur, es reconocida por su enfoque innovador en la seguridad de Web3. La empresa se especializa en desarrollar soluciones avanzadas de IA diseñadas para ayudar a desarrolladores y partes interesadas a salvaguardar sus aplicaciones y contratos inteligentes. Este enfoque en la seguridad es esencial en el paisaje digital en rápida evolución, donde las vulnerabilidades pueden llevar a riesgos significativos. Al aprovechar las tecnologías de IA, MetaTrust Labs busca crear ecosistemas digitales más seguros y eficientes que puedan resistir amenazas potenciales.
Stratos, conocido por su compromiso con soluciones de infraestructura descentralizada, desempeña un papel fundamental en esta asociación. La empresa proporciona un marco de almacenamiento descentralizado que admite alta disponibilidad, escalabilidad y resiliencia para plataformas Web3. Al integrar sus soluciones de almacenamiento descentralizado con las herramientas de seguridad impulsadas por IA de MetaTrust Labs, la asociación promete ofrecer un nivel de protección sin igual para el código y los datos dentro de las aplicaciones Web3. Esta colaboración no solo aumenta la confianza en la seguridad para los desarrolladores, sino que también contribuye a la integridad general del espacio Web3, allanando el camino para un futuro digital más seguro.
hace 5 días
Falcon Mamba 7B: Un avance en modelos de IA sin atención
La rápida evolución de la inteligencia artificial (IA) se ve significativamente influenciada por la aparición de modelos sin atención, siendo Falcon Mamba 7B un ejemplo notable. Desarrollado por el Technology Innovation Institute (TII) en Abu Dhabi, este modelo innovador se aparta de las arquitecturas tradicionales basadas en Transformers que dependen en gran medida de los mecanismos de atención. En su lugar, Falcon Mamba 7B utiliza Modelos de Espacio de Estado (SSMs), que proporcionan una inferencia más rápida y eficiente en memoria, abordando los desafíos computacionales asociados con tareas de contexto largo. Al entrenar con un extenso conjunto de datos de 5.5 billones de tokens, Falcon Mamba 7B se posiciona como una alternativa competitiva a modelos existentes como Gemma de Google y Phi de Microsoft.
La arquitectura de Falcon Mamba 7B está diseñada para mantener un costo de inferencia constante, independientemente de la longitud de la entrada, resolviendo efectivamente el problema de escalado cuadrático que afecta a los modelos Transformer. Esta capacidad única le permite sobresalir en aplicaciones que requieren procesamiento de contexto largo, como la resumición de documentos y la automatización del servicio al cliente. Si bien ha demostrado un rendimiento superior en varios benchmarks de procesamiento de lenguaje natural, aún enfrenta limitaciones en tareas que exigen una comprensión contextual intrincada. Sin embargo, su eficiencia de memoria y velocidad lo convierten en una opción atractiva para organizaciones que buscan optimizar sus soluciones de IA.
Las implicaciones de Falcon Mamba 7B van más allá de las métricas de rendimiento. Su soporte para cuantización permite un despliegue eficiente tanto en GPUs como en CPUs, mejorando aún más su versatilidad. A medida que el panorama de la IA evoluciona, el éxito de Falcon Mamba 7B sugiere que los modelos sin atención podrían convertirse pronto en el estándar para muchas aplicaciones. Con la investigación y el desarrollo en curso, estos modelos podrían superar potencialmente a las arquitecturas tradicionales en velocidad y precisión, allanando el camino para aplicaciones innovadoras en diversas industrias.
hace 6 días
Conectando Constructores: Eventos en Bangkok centrados en Datos, IA y Cripto
En un impulso vibrante hacia la innovación en la intersección de datos, IA y criptomonedas, un grupo de constructores se está preparando para interactuar con la comunidad en Bangkok este mes. Estarán presentes en varios eventos clave, incluido el Filecoin FIL Dev Summit el 11 de noviembre, Devcon del 12 al 15 de noviembre y el DePIN Day de Fluence el 15 de noviembre. Estas reuniones están diseñadas para constructores, operadores y recién llegados por igual, proporcionando una plataforma para la creación de redes y la colaboración en el rápidamente evolutivo paisaje de Web3.
El enfoque de estos eventos es fomentar conexiones entre aquellos interesados en tecnologías descentralizadas. Los asistentes pueden esperar participar en discusiones sobre varios temas como almacenamiento descentralizado, datos verificables y gestión de identidades. Los organizadores están particularmente interesados en promover su grupo privado de Telegram, Proof of Data, que sirve como un espacio colaborativo para individuos que enfrentan desafíos dentro del ecosistema de datos de Web3. Esta iniciativa tiene como objetivo crear una comunidad donde los participantes puedan compartir ideas y soluciones relacionadas con la disponibilidad de datos y los datos sintéticos.
A medida que el ecosistema de Web3 continúa creciendo, eventos como estos son cruciales para construir relaciones y compartir conocimientos. Al reunir a diversas partes interesadas, desde desarrolladores experimentados hasta aprendices curiosos, las reuniones en Bangkok prometen ser un crisol de ideas e innovaciones. Se anima a los asistentes a conectarse con el equipo en DePIN Day para obtener más información y unirse a la conversación en curso en la comunidad de Proof of Data, asegurando que todos tengan la oportunidad de contribuir al futuro de las tecnologías descentralizadas.
hace 8 días
Verida DAO lanza programa de subvenciones privadas de IA
La Verida DAO ha lanzado oficialmente su programa inaugural de subvenciones privadas de IA de Verida, destinado a promover la innovación en los ámbitos de la IA privada y el almacenamiento descentralizado. Esta iniciativa está diseñada para apoyar proyectos innovadores que aprovechen el Verida Private Data Bridge, que se ampliará integrando conectores de datos adicionales. Al hacerlo, el programa empoderará a los desarrolladores que utilizan la API de Verida para acceder a una gama más amplia de datos de usuarios, lo que finalmente conducirá a la creación de agentes y aplicaciones de IA más sofisticados.
Las subvenciones estarán disponibles desde el 15 de noviembre hasta el 15 de febrero, con un total de fondos de subvención valorados en 30,000 USD en tokens VDA. El programa cuenta con múltiples niveles de financiación, atendiendo a varios niveles de complejidad del proyecto. El nivel 1 ofrece 500 USD para la extensión de conectores existentes, mientras que el nivel 2 proporciona 1,000 USD para conectores básicos. Para proyectos más avanzados, el nivel 3 otorga 2,000 USD para conectores de alta complejidad, y el nivel 4 concede 3,500 USD para conectores avanzados. Este enfoque escalonado fomenta una amplia gama de soluciones innovadoras dentro del ecosistema de almacenamiento descentralizado.
Los participantes interesados pueden registrar su interés completando un formulario designado, que será revisado por el equipo de la DAO. Las presentaciones exitosas llevarán a más discusiones sobre los proyectos propuestos. La Verida DAO está entusiasmada con las posibles contribuciones al futuro de la IA privada y espera ver soluciones innovadoras que mejoren el panorama del almacenamiento descentralizado. Esta iniciativa marca un paso significativo hacia la realización de la visión a largo plazo de Verida de desbloquear datos para diversos casos de uso de IA privada.
hace 8 días
CUDOS se asocia con ParallelAI para mejorar la computación descentralizada de IA
CUDOS, un actor destacado en la computación en la nube sostenible y descentralizada, ha forjado recientemente una asociación estratégica con ParallelAI, un pionero en soluciones de procesamiento paralelo adaptadas para la inteligencia artificial. Esta colaboración tiene como objetivo fusionar las GPU de alto rendimiento Ada Lovelace y Ampere de CUDOS con el middleware Parahub GPU de ParallelAI, creando así un entorno de computación de IA descentralizado que promete una eficiencia y escalabilidad excepcionales. Al aprovechar la infraestructura descentralizada de CUDOS, el ecosistema $PAI de ParallelAI tendrá acceso a recursos GPU robustos y rentables, lo que permitirá cargas de trabajo de IA aceleradas que permiten a desarrolladores y empresas optimizar la utilización de GPU mientras minimizan los gastos operativos.
El momento de esta asociación es particularmente significativo, ya que CUDOS continúa construyendo sobre su reciente fusión de tokens con los miembros de la ASI Alliance, que incluyen entidades notables como Fetch.ai, SingularityNET y Ocean Protocol. Esta alineación estratégica consolida aún más la posición de CUDOS dentro de una red de IA descentralizada reconocida a nivel mundial. Los próximos lanzamientos de ParallelAI, como el lenguaje de programación Parilix y el transformador de código automatizado PACT, están destinados a complementar esta asociación, simplificando la programación de GPU y mejorando la accesibilidad del procesamiento paralelo para los desarrolladores, fomentando así la innovación en el sector de la IA.
La colaboración entre CUDOS y ParallelAI significa un compromiso mutuo para promover soluciones de computación de IA sostenibles y accesibles. A medida que avanza la integración de sus tecnologías, esta asociación está lista para inaugurar una nueva era de computación descentralizada y de alto rendimiento, redefiniendo en última instancia el panorama de la inteligencia artificial para desarrolladores y empresas por igual. Con la capacidad de ParallelAI para mejorar la eficiencia de computación al reducir significativamente los tiempos de cálculo, se espera que la sinergia entre estas dos empresas empodere una amplia gama de proyectos impulsados por IA y análisis de datos a gran escala.