深入分析了飞腾处理器FT1500A与商用处理器Intel XEON在性能上的差异。在微基准测试层面,评测了两个平台能够达到的最大可获得性能(浮点性能、访存延迟和访存带宽)。在应用层面,选取一个典型的海洋预报数值模拟软件,研究了如何将一个开源代码移植到飞腾处理器和商用处理器上,探讨了该软件在两个平台上的单核性能与多核性能,分析了性能差异的原因并提出了相应的优化建议。认为FT1500A已经有良好的生态基础(操作系统、编译器和工具链),使得移植典型科学计算程序简单可行,虽然跟商用平台相比,飞腾处理器在性能上存在着差距,但考虑到其在功耗上的优势,飞腾处理器将是一个非常具有应用前景的平台。
互联网时代信息量的爆炸式增长、深度学习的普及使传统通用计算无法适应大规模、高并发的计算需求。异构计算能够为深度学习释放更强的计算能力,达到更高的性能要求,并可应用于更广阔的计算场景。针对深度学习算法,设计仿真了一款完整的异构计算SoC架构。首先,通过对常用深度学习算法,如GoogleNet、LSTM、SSD,进行计算特征分析,将其归纳为有限个共性算子类,并用图表及结构框图的形式进行展示,同时生成最小算子级别伪指令流。其次,根据提取的算法特征,进行面向深度学习的硬件加速AI IP核设计,构建异构计算SoC架构。最后,通过仿真建模平台进行实验验证,SoC系统的性能功耗比大于1.5 TOPS/W,可通过GoogleNet算法对10路1 080 p 30 fps视频逐帧处理,且每帧端到端的处理时间不超过30 ms。
基于传统BP神经网络的入侵检测中,BP神经网络算法模型存在着易陷入局部最优且初始值随机性较大的缺陷。初始值的选择直接影响到BP神经网络的训练效果,较好的初始值有利于BP神经网络跳过局部最优,从而提高训练效率。针对BP神经网络的缺陷,提出了用改进的和声搜索算法对BP神经网络的初始值进行优化,使得BP神经网络得到一组较优的初值的方法。实验结果显示,改进的和声搜索算法具有更高的适应度函数值,将该算法优化的BP神经网络用在入侵检测中,能够显著提高算法检测率和收敛速率。
针对蝙蝠算法个体越界、易早熟收敛的问题,提出一种基于越界重置和高斯变异的蝙蝠优化算法。新算法将飞越解空间边界的个体拉回解空间内,利用越界重置策略重新分配位置。通过高斯变异策略控制个体的搜索范围,使种群以最优解为中心向四周呈放射状搜索,增强了算法的局部搜索和全局寻优能力。蝙蝠算法在靠近目标解时响度和脉冲发射频率更新不协调,影响了算法的持续进化能力,通过线性渐变策略保证响度和脉冲发射频率的变化与算法持续进化相适应。研究了在解空间不同位置关系的情况下新算法和对比算法的优化能力,并结合实验数据对算法收敛稳定性进行分析。实验结果表明,提出的新算法具有较好的收敛速度和精度,其全局寻优能力和高维问题优化能力体现了很好的鲁棒性。
算法智能推荐是超启发式算法研究领域一个重要分支,其目标是从众多“在线”算法中自动选择出最适于当前问题的算法,从而大大提升解决问题的效率。基于此提出并验证了一种优化算法智能推荐系统,理论依据是无免费午餐定理和Rice算法选择框架,并假设问题特征与算法性能表现之间存在潜在关联关系,从而可以把算法推荐问题转换为一个多分类问题。为了验证假设的成立,以多模式资源约束项目调度问题为测试样本数据集,以粒子群、模拟退火、禁忌搜索和人工蜂群等元启发式优化算法为推荐对象,以支持向量机多分类策略实现算法的分类推荐。交叉验证结果表明,推荐准确率均在90%以上,各项评价指标表现优秀。
BDI模型能够很好地解决在特定环境下的Agent的推理和决策问题,但在动态和不确定环境下缺少决策和学习的能力。强化学习解决了Agent在未知环境下的决策问题,却缺少BDI模型中的规则描述和逻辑推理。针对BDI在未知和动态环境下的策略规划问题,提出基于强化学习Q-learning算法来实现BDI Agent学习和规划的方法,并针对BDI的实现模型ASL的决策机制做出了改进,最后在ASL的仿真平台Jason上建立了迷宫的仿真,仿真实验表明,在加入Qlearning学习机制后的新的ASL系统中,Agent在不确定环境下依然可以完成任务。
蚁群算法是一种源于大自然生物界的仿生进化算法,具有自组织性、正反馈性、较强的鲁棒性和分布式计算等特性,且易于与其它算法相结合,在众多的复杂组合优化领域中有着广阔的应用前景。首先对蚁群算法的理论及其重要参数进行了阐述,继而分析了其在参数优化和智能融合方面的改进与应用;然后对其在车间作业调度问题、车辆路径问题、图像处理、电力系统优化等领域的应用进展进行了综述;最后对其理论研究和应用领域可能存在的问题及对策进行了探讨和展望。