L-Mul算法:提升人工智能效率的新突破
星期三, 十一月 13, 2024 12:00 凌晨
2,558
随着人工智能(AI)的快速发展,能源消耗问题日益严重,尤其是神经网络模型的计算需求高,导致巨大的电力消耗。例如,2023年初,运行ChatGPT每天消耗约564 MWh电力,相当于1.8万户美国家庭的用电量。为了解决这一问题,L-Mul(线性复杂度乘法)算法应运而生,通过用简单的整数加法近似浮点乘法,显著降低AI计算的能源需求。L-Mul在元素级张量乘法中实现了高达95%的能耗减少,在点积计算中减少了80%的能耗,同时保持了AI模型的准确性。该算法在多个应用中表现出色,包括变换器模型和大型语言模型(LLMs),在GSM8k和视觉问答等基准测试中超越传统浮点格式FP8。L-Mul不仅解决了AI的能源危机,还为可持续技术发展铺平了道路。
Related News
1 天前
Matchain与io.net合作推动Web 3中的AI发展去中心化GPU计算提供商io.net与去中心化AI身份层Matchain达成战略合作,旨在提升Matchain生态系统内的AI应用开发。该合作利用io.net的GPU基础设施,简化Matchain开发者的开发流程,使其专注于创新应用的创建。Matchain将借助io.net的去中心化计算资源,支持多种应用,推动AI集成和创新。通过io.net的GPU集群,Matchain用户将获得可扩展且成本效益高的计算资源,降低开发成本,提高AI应用开发的速度和效率。Matchain首席商务官Jessie Xiao表示,此次合作为开发者提供了构建下一代应用所需的工具,并推动去中心化生态系统中的AI创新。此外,合作还将利用区块链技术为AI研究提供支持,预计将为110万用户提供先进的AI身份应用开发工具。
3 天前
CreatorBid与io.net合作推动去中心化GPU网络的AI发展在AI创作者经济领域,io.net宣布与专注于AI工具的CreatorBid建立战略合作关系。此举将使CreatorBid能够利用io.net的去中心化GPU网络,提升其图像和视频模型的可扩展性和效率。通过这一基础设施,CreatorBid旨在优化资源利用,降低成本,使高性能计算对AI技术企业更加可及。io.net业务发展副总裁Tausif Ahmed强调,此合作将助力CreatorBid开发先进的AI解决方案。CreatorBid首席执行官Phil Kothe也指出,去中心化GPU资源将赋能AI影响者和代理人,推动内容创作的变革。CreatorBid致力于为创作者提供工具,帮助他们实现内容变现并建立社区,通过与区块链技术结合,重塑创作者生态,推动向自主创作者经济的转型。
3 天前
去中心化边缘人工智能:让人工智能技术普及化去中心化边缘人工智能(Decentralized EdgeAI)正在改变人工智能(AI)领域,旨在让更多用户和企业能够接触到AI技术。目前,OpenAI、IBM、亚马逊和谷歌等大型科技公司主导着AI基础设施,造成了小型企业的进入壁垒,限制了全球数百万用户的访问。去中心化边缘AI通过整合去中心化物理基础设施(DePIN)和边缘AI,允许AI系统在多种设备上运行,同时确保隐私和社区参与。边缘AI的一个关键优势是减少对大型数据中心的依赖,降低了传统AI模型的高昂成本。Network3的去中心化联邦学习框架通过多个设备共享资源,提高了AI系统的效率,并通过强加密方法确保数据安全。最终,这种去中心化的方法不仅打破了集中垄断,还为开发者和用户创造了新的收入来源,使AI技术更加普及和有益。
3 天前
CreatorBid与io.net合作提升AI开发与图像扩展能力CreatorBid近期加入io.net去中心化网络,标志着AI开发与图像模型扩展的重要进展。io.net是去中心化物理基础设施网络的领先者,此次战略合作将利用其去中心化GPU网络,提升CreatorBid的能力,实现AI图像模型的高效扩展,并显著降低成本。此合作解决了传统服务提供商面临的集中化问题,如高成本和处理速度慢。CreatorBid首席执行官Phil Kothe对此表示乐观,认为该合作将使公司能够扩展服务范围,包括视频和直播。CreatorBid还计划通过可定制的AI影响者赋能创作者,利用Base Network上的Agent Keys作为会员代币,促进创作者与受众之间的互动与价值共享。通过原生代币$AGENT进行交易和治理,CreatorBid旨在通过结合先进的AI工具与区块链技术,重新定义创作者生态系统。
8 天前
Llama 3.2微调指南:提升模型性能的全面指南Meta近期发布的Llama 3.2在大型语言模型(LLMs)的微调方面取得了重要进展,使机器学习工程师和数据科学家能够更轻松地提升模型在特定任务上的表现。该指南详细介绍了微调过程,包括环境设置、数据集创建和训练脚本配置。微调使Llama 3.2能够专注于特定领域,例如客户支持,从而提供比通用模型更准确和相关的响应。
用户在开始微调Llama 3.2时,需首先设置环境,特别是在Windows系统上,包括安装Windows子系统Linux(WSL)、配置GPU访问及安装必要的Python开发依赖。随后,用户可以创建针对微调的数据集,例如生成一个简单数学问题的数据集。
准备好数据集后,用户需使用Unsloth库设置训练脚本,通过低秩适应(LoRA)简化微调过程。完成微调后,需通过生成测试集评估模型性能。尽管微调在提升特定任务的模型准确性方面具有显著优势,但也需考虑其局限性及对简单需求的提示调优效果。
8 天前
Stratos与Tatsu合作提升去中心化身份验证在区块链和人工智能领域,Stratos宣布与去中心化AI加密项目Tatsu建立战略合作关系。Tatsu在去中心化身份验证方面取得了显著进展,通过GitHub活动和加密货币余额等先进指标创建独特的人类评分。这一创新方法提高了验证过程的可靠性和效率。Tatsu即将推出的身份验证2.0和新文档理解子网,将重新定义去中心化AI的能力。此次合作将使Tatsu整合Stratos的去中心化存储解决方案,显著增强其数据管理和安全协议。两家公司通过技术和专业知识的结合,推动去中心化领域的创新与发展。此次合作预计将对区块链社区产生重大影响,去中心化存储与先进AI解决方案的结合将改变各行业的身份验证方式,展现了去中心化技术与AI结合的潜力。