会员
AI嵌入式系统:算法优化与实现
应忍冬 刘佩林编著更新时间:2021-11-12 17:44:59
最新章节:附录B 技术术语表开会员,本书免费读 >
本书介绍嵌入式系统中的机器学习算法优化原理、设计方法及其实现技术。内容涵盖通用嵌入式优化技术,包括基于SIMD指令集的优化、内存访问模式优化、参数量化等,并在此基础上介绍了信号处理层面的优化、AI推理算法优化及基于神经网络的AI算法训练—推理联合的优化理论与方法。其中信号处理层面优化介绍了基于线性代数的快速近似算法、基于多项式的快速卷积构造技术、基于数据二进制结构的快速乘法算法等;在AI推理层面,介绍了机器学习推理模型共性结构、运算图中各个算子的计算优化途径;对基于神经网络的AI算法,阐述了如何将推理阶段的运算量约束以及底层数据量化约束加入训练代价函数,从算法训练端减少运算量以提升AI嵌入式系统的运行效率。此外,本书还通过多个自动搜索优化参数并生成C代码的例子介绍了通用的嵌入式环境下机器学习算法自动优化和部署工具开发的基本知识,通过应用示例和大量代码说明了AI算法在通用嵌入式系统中的实现方法,力求让读者在理解算法的基础上,通过实践掌握高效的AI嵌入式系统开发的知识与技能。
品牌:机械工业出版社
上架时间:2021-10-01 00:00:00
出版社:机械工业出版社
本书数字版权由机械工业出版社提供,并由其授权上海阅文信息技术有限公司制作发行
AI嵌入式系统:算法优化与实现最新章节
查看全部- 附录B 技术术语表
- 附录A 补充数据和列表
- 8.7 小结
- 8.6 ARM的SIMD指令编程
- 8.5 ARM NN软件框架和编程
- 8.4 ARM Compute Library软件框架和编程
- 8.3 基于CMSIS-NN的神经网络编程
- 8.2 CMSIS-DSP软件框架和编程
- 8.1 CMSIS软件框架概述
- 第8章 ARM平台上的机器学习编程
应忍冬 刘佩林编著
主页
同类热门书
最新上架
- 会员
从零开始大模型开发与微调:基于PyTorch与ChatGLM
大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch2.0深度学习环境搭建计算机12.8万字 - 会员
GPT图解:大模型是怎样构建的
人工智能(AI),尤其是生成式语言模型和生成式人工智能(AIGC)模型,正以惊人的速度改变着我们的世界。驾驭这股潮流的关键,莫过于探究自然语言处理(NLP)技术的深奥秘境。本书将带领读者踏上一段扣人心弦的探索之旅,让其亲身感受,并动手搭建语言模型。本书主要内容包括N-Gram,词袋模型(BoW),Word2Vec(W2V),神经概率语言模型(NPLM),循环神经网络(RNN),Seq2Seq(S2计算机14万字 - 会员
当我点击时,算法在想什么?
我们生活在一个由算法构筑的世界:这些基于数据的算法不仅掌控着社会的运转、筛选着我们的网络见闻,还构成了自动驾驶、智能家居、前沿医疗、智慧城市乃至元宇宙发展的根本。它们是人类步入智能化新纪元的关键驱动力。随着我们对数字技术的依赖日益加深,数学家和数据研究者得以透过它们窥探我们的日常生活。他们通过收集我们的购物记录、消费倾向、兴趣爱好和旅行路径等数据,试图解码我们的日常行为模式。但是,这些数据驱动的分计算机15.2万字 - 会员
ChatGPT漫谈
本书深度探讨了构建和训练ChatGPT模型涉及的核心技术,以及ChatGPT在各种实际应用中的作用。全书精心划分为三部分,其中第1章为第1部分,第2章为第2部分,第3章和第4章为第3部分。首先,详细阐述了机器学习的历史演变与各种学习范式,同时也揭示了在人工智能生成内容(AIGC)领域下,图像处理和自然语言处理技术的历史发展趋势;接下来,对ChatGPT的运行机制和关键算法进行深度解析,包括大规模模计算机10.8万字 - 会员
AIGC辅助数据分析与数据化运营:场景化解决方案与案例分析
这是一本能从业务、方法、场景3个维度帮助读者使用AI技术提升数据分析和数据化运营能力的著作。用扎实的理论框架、丰富的实践案例、实用的操作技巧,全面展示了如何用AI延伸业务分析广度、拓展业务分析深度、优化业务分析效能,从而达到帮助企业用智能的数据化运营实现业务持续增长的目的。本书采用案例驱动的写作方式,通过实际业务案例详细拆解AI技术在各个场景中的应用步骤和技巧。语言简洁易懂,理论与实践结合,注重实计算机17.2万字 - 会员
破解深度学习(基础篇):模型算法与实现
本书旨在采用一种符合读者认知角度且能提升其学习效率的方式来讲解深度学习背后的基础知识。本书总计9章,深入浅出地介绍了深度学习的理论与算法基础,从理论到实战全方位展开。前三章旨在帮助读者快速入门,介绍了必要的数学概念和必备工具的用法。后六章沿着深度学习的发展脉络,从最简单的多层感知机开始,讲解了深度神经网络的基本原理、常见挑战、优化算法,以及三大典型模型(基础卷积神经网络、基础循环神经网络和注意力神计算机14.8万字 - 会员
MindSpore大语言模型实战
随着ChatGPT等大语言模型的迅速发展,大语言模型已经成为人工智能领域发展的快车道,不同领域涌现出各种强大的新模型。开发者想要独立构建、部署符合自身需求的大语言模型,需要理解大语言模型的实现框架和基本原理。本书梳理大语言模型的发展,首先介绍Transformer模型的基本原理、结构和模块及在NLP任务中的应用;然后介绍由只编码(Encoder-Only)到只解码(Decoder-Only)的技术计算机6.6万字 - 会员
量子人工智能
量子计算与人工智能的交叉融合,促使量子人工智能的不断发展。本书旨在采用对深度学习爱好者友好的方式,构建量子人工智能应用。全书共13章,第1章和第2章系统介绍量子计算机发展脉络和量子计算编程的基础知识。第3~7章分别介绍不同的深度学习方法和在这些算法逻辑上构建量子启发算法的方式,用量子线路中的相位作为神经网络的可学习参数,重构为量子神经网络算子。这些算子可以在PyTorch环境中直接调用。第8章和第计算机7.6万字 - 会员
巧用ChatGPT进行数据分析与挖掘
这既是一本引导读者如何使用ChatGPT低门槛、高效率学习Python数据分析与挖掘方法的著作,又是一本指导读者如何使用ChatGPT精准、高效地进行Python数据分析与挖掘实操的著作。从读者对象的角度看,本书既大大降低了没有编程经验的读者学习Python数据分析的门槛,又为有经验的Python数据分析师提供了大量实用的AI数据分析技巧,帮助他们快速转型为具备AI能力的数据分析师。从核心内容的角计算机16.9万字