Please wait a minute...
中国计算机学会会刊
中国科技核心期刊
中文核心期刊
首页
期刊介绍
期刊荣誉
数据库收录
编委会
投稿指南
投稿须知
出版道德
期刊订阅
下载中心
联系我们
English
当期目录
2021年, 第09期 刊出日期:2021-09-25
上一期
下一期
本期栏目:
目录
高性能计算
计算机网络与信息安全
图形与图像
人工智能与数据挖掘
目录
2021年第9期目录
2021, 43(09): 0-0. doi:
摘要
(
138
)
PDF
(291KB) (
165
)
高性能计算
基于FPGA的卷积神经网络加速器动态余数处理映射模型
赵小强, 姜晶菲, 许金伟, 窦勇
2021, 43(09): 1521-1528. doi:
摘要
(
204
)
PDF
(1283KB) (
331
)
将卷积计算转化为矩阵乘法是FPGA上一种高效实现,而现有的转化方法无法根据卷积参数的不同动态调整,限制了卷积计算的并行度。提出一种新的动态余数处理映射模型。该映射模型包含有3个子模型:特征值映射模型,权值映射模型,和输出映射模型。特征值映射模型将特征值转化为特征值矩阵,权值映射模型将权值转化为权值矩阵,特征值矩阵和权值矩阵通过乘累加计算阵列得到卷积计算结果,由输出映射模型将卷积计算结果存储到内存中。在卷积计算过程中,卷积的输出通道数通常不是乘累加计算阵列行数的整数倍,3个子映射模型会根据产生的余数动态调整映射方法,提高乘累加计算阵列的利用率。通过实验表明,采用动态余数处理映射模型能够将余数并行度的倍数至多提高到卷积核大小,使整个加速器达到了更高的实际吞吐量和能量效率。
基于DNA折纸术求解可满足性问题的计算模型
王欣怡, 殷志祥, 唐震, 杨静, 崔建中,
2021, 43(09): 1529-1537. doi:
摘要
(
158
)
PDF
(1215KB) (
207
)
DNA折纸术是一种全新的DNA自组装方法,具有可编程性、纳米可寻址性等优点,被广泛地应用于DNA计算中。利用DNA折纸术可折叠出特殊结构的特点,在DNA折纸基底上设计了一种求解可满足性问题的计算模型,该模型采用分子信标原理,通过观察荧光的明灭排除非解,从而找出可满足性问题的解。最后通过实例和模拟仿真表明了模型的可行性。
面向高带宽I/O的片上网络优化
石伟, 龚锐, 刘威, 王蕾, 冯权友, 张剑锋
2021, 43(09): 1538-1545. doi:
摘要
(
159
)
PDF
(936KB) (
204
)
在高性能处理器中,I/O带宽需求不断增加,一方面高速接口的通道数目不断增加,另一方面接口传输速率也在逐渐提升。高性能处理器的片上网络必须能够匹配各种高速I/O的带宽需求,且必须保证DMA请求能够正确完成。然而各种高速接口协议与片上网络协议在通信机制上存在较大的差别,可能导致死锁等现象的产生。首先对匹配高性能I/O的片上网络存在的问题进行分析,然后提出一种高带宽I/O设计方法及死锁解决方法。采用解死锁方法的片上网络增强了I/O系统的鲁棒性,同时可以减少片上网络设计及运行时的各种限制,提升I/O性能。最后,将所提出的优化方法应用到高性能服务器处理器芯片中,并进行评测,针对16通道PCIe 4.0接口,双向读写带宽分别达到30 GB/s,在一些特殊场景出现死锁以后,片上网络能自动检测死锁并解除死锁。
基于神经网络编码的真值发现
曹建军, 常宸, 翁年凤, 陶嘉庆, 江春
2021, 43(09): 1546-1557. doi:
摘要
(
137
)
PDF
(1492KB) (
146
)
由于互联网的开放性和多源性,不同互联网平台提供的数据参差不齐,多个数据源对同一实体的描述可能存在冲突,真值发现是消解语义冲突,提高数据质量的重要技术手段之一。传统真值发现算法通常假设数据源可靠度与观测值可信度间的关系可用简单函数表示,设计迭代规则或概率模型进行真值发现,而人工定义的条件通常难以反映数据底层的真实分布,导致真值发现结果不理想。针对此问题,提出基于神经网络编码的真值发现方法TDNNE。首先利用“数据源-数据源”“数据源-观测值”关系及真值发现的假设构造双损失深度神经网络;然后利用该网络将数据源与观测值嵌入到高维空间,分别表示数据源可靠度与观测值可信度,使可靠数据源与可信观测值彼此接近(同时,不可靠数据源与不可信观测值彼此接近);最后基于嵌入空间进行真值发现。与传统方法相比,TDNNE方法不需要人工定义迭代规则或数据分布,而是利用神经网络自动学习数据源观测值间复杂的关系依赖。在真实数据集上的实验结果表明,该方法准确率较基于迭代的Accu等方法准确率提高约2%~25%,较基于概率图模型的3-Estimates等方法提高约2%~4%,较基于优化的CRH方法提高约2%~5%,较基于神经网络的FFMN方法提高约1%~2%。
基于醉汉漫步和反向学习的灰狼优化算法
刘炼, 付绍昌, 黄辉先
2021, 43(09): 1558-1566. doi:
摘要
(
157
)
PDF
(689KB) (
170
)
灰狼优化算法在优化后期易陷入局部最优,在求解高维函数时因其复杂度更高,陷入局部最优概率更大,针对上述问题提出基于醉汉漫步和反向学习的混合灰狼优化算法(DGWO)。在迭代过程中对每代种群中优势狼与最差狼进行反向学习并进行比较、重新排序后保留前3的狼,同时将采用醉汉漫步机制更新领导狼,参数A和C采用系数标量而不是GWO原始算法中的系数向量。通过10个标准测试函数(100维、500维和1 000维)以及10维的CEC2013测试函数验证了算法的性能,并与PSO、GWO-CS和GWO算法进行了比较,
结果表明,该混合灰狼优化算法
在精度和收敛速度上都具有优势。此外,将改进的灰狼优化算法应用于两级运算放大器参数设计,以开环低频增益最大化为目标,验证该算法的实用性。
计算机网络与信息安全
大规模数据流统计中冷热流替换策略优化
乔冠杰, 吕高锋, 谭靖, 莫露莎
2021, 43(09): 1567-1573. doi:
摘要
(
119
)
PDF
(799KB) (
121
)
对大规模数据流统计的问题进行了研究,针对大流统计的典型结构Elastic Sketch替换策略中存在的问题进行优化,优化策略解决了冷流被误判为热流插入重部的问题。针对重部中保存的不一定是最大流的问题进行优化,提出了基于最大值和组相连的替换策略,保证了存储在重部的一定是最大的流,提高了大流统计的精度,同时大大降低了热碰撞发生的概率。相比于传统的测量统计方法,在提高了测量精度的同时,减少了内存占用。
一种边缘设备动态信任度的评估模型
赵国生, 王甜甜, 王健
2021, 43(09): 1574-1583. doi:
摘要
(
229
)
PDF
(792KB) (
263
)
面向边缘计算环境中设备信任度评估的准确性和时间开销等问题,提出一种边缘设备动态信任度评估模型—DTEM。首先,利用时间退化因子表达直接信任度时效性,引入满意度函数修正贝叶斯方程,并结合激励机制评估边缘设备间的直接信任度。其次,利用改进的灰关联分析法确定指标权重,解决了间接信任度评估过程中推荐设备权重的问题。最后,通过信息熵融合直接信任度和间接信任度得出设备综合信任值,同时利用动态更新因子,动态更新综合信任值。仿真分析表明,相比RFSN模型,DTEM在检测恶意设备中误检率平均降低5.7%,设备间交互成功率平均提升4.1%,同时验证了DTEM在时间开销方面优于FHTM模型和RFSN模型,能够更准确高效地评估边缘设备的信任度。
网络日志数据中条件因果挖掘算法的优化研究
刘云, 肖添
2021, 43(09): 1584-1590. doi:
摘要
(
116
)
PDF
(895KB) (
156
)
网络操作中收集了大量的系统日志数据,找出精确的系统故障成为重要的研究方向。提出一种条件因果挖掘算法(CCMA),通过从日志消息中生成一组时间序列数据,分别用傅里叶分析和线性回归分析删除大量无关的周期性时间序列后,利用因果推理算法输出有向无环图,通过检测无环图的边缘分布,消除冗余关系得出最终结果。仿真结果表明,对比依赖挖掘算法(DMA)和网络信息关联与探索算法(NICE),CCMA算法在处理时间和边缘相关率2个主要性能指标方面均有改善,表明CCMA算法在日志事件挖掘中能有效优化处理速度和挖掘精度。
图形与图像
基于胶囊网络的跨域行人再识别
杨晓峰, 张来福, 王志鹏, 萨旦姆, 邓红霞, 李海芳
2021, 43(09): 1591-1599. doi:
摘要
(
131
)
PDF
(768KB) (
161
)
行人再识别是在不同环境下再次对特定行人进行检索,近几年来受到国内外学者的广泛关注。目前行人再识别算法多采用局部特征与全局特征相结合的方法,在单一数据集上的训练和测试取得了非常好的成绩,但是在跨域测试中成绩并不理想,泛化能力较低。提出一种基于深度胶囊网络的跨域行人再识别方法,通过视角分类训练任务,模型可以学习图像中行人的有效特征,这些特征可以直接迁移到行人再识别任务中,缓解了行人再识别泛化能力不足的问题。实验结果表明,本文模型优于目前所有无监督学习行人再识别方法,具有良好泛化能力。
三维网格图的零可视警察与强盗博弈算法
王佳慧, 钟发荣
2021, 43(09): 1600-1607. doi:
摘要
(
140
)
PDF
(692KB) (
113
)
警察与强盗博弈是一个图搜索问题,解决该问题的关键是确定能成功捕获强盗的最少警察数。在零可视警察与强盗博弈中强盗不可见:任意时刻警察都不知道强盗所在位置。通过建立顶点清理模型对三维网格图的性质进行分析,将三维网格图的顶点集划分成2个子集,导出划分中较小子集与边界的关系,并利用划分中的结论,给出三维网格图中最少警察数的下界。结合图搜索的单调性原则,给出一种可行的单调性搜索策略,确定三维网格图中最少警察数的上界。最后提出一种在三维网格图中最少警察数范围内可行的搜索算法。
基于改进NLM的PCB图像去噪算法
张露文, 薛晓军, 李恒, 王海瑞, 张国银, 赵磊
2021, 43(09): 1608-1615. doi:
摘要
(
169
)
PDF
(828KB) (
158
)
针对工业生产中的PCB图像边缘信息缺失且携带有大量噪声,现有去噪算法效果不佳、计算量庞大、复杂度高等问题,
提出了一种基于改进NLM的PCB图像去噪算法,旨在提高PCB图像的去噪质量。首先,采用基于形态学的权重自适应算法对PCB图像进行图像增强,使PCB图像保留较好的边缘信息;其次,引入特征匹配模型对增强后的PCB图像与原始PCB图像进行特征点匹配融合;最后,通过改进NLM算法的权重值对PCB图像进行去噪,得到最终的去噪图像。实验结果显示,与现有算法相比,所提算法更好地保留了PCB图像的边缘信息,去噪效果佳,显著改善了图像质量,增强了图像的鲁棒性,且提高了计算速度,降低了算法复杂度。
结合自适应融合网络与哈希的图像检索算法
周燕, 潘丽丽, 陈蓉玉, 邵伟志, 雷前慧
2021, 43(09): 1616-1622. doi:
摘要
(
132
)
PDF
(649KB) (
181
)
卷积神经网络因其对图像识别准确率高而在图像检索领域备受青睐,但处理大规模数据集时,基于卷积神经网络提取的深度特征维度高,容易引发“维度灾难”。针对图像检索中深度特征维度高的问题,提出一种基于自适应融合网络特征提取与哈希特征降维的图像检索算法。由于传统哈希处理高维特征复杂度高,因此本文在卷积神经网络中加入自适应融合模块对特征进行重新整合,增强特征表征能力的同时降低特征维度;然后应用稀疏化优化算法对深度特征进行第2次降维,并通过映射获得精简的哈希码;最后,实验以Inception网络作为基础模型,在数据集CIFAR-10和ImageNet上进行了丰富的实验。实验结果表明,该算法能有效提高图像检索效率。
基于融合亮度模型和梯度域滤波的图像去雾#br#
火元莲, 郑海亮, 李明, 张健,
2021, 43(09): 1623-1633. doi:
摘要
(
137
)
PDF
(1537KB) (
170
)
为解决暗通道先验算法在处理图像的天空区域时容易出现颜色过饱和、亮度整体偏暗和光晕等问题,提出了一种融合亮度模型和梯度域滤波的图像去雾算法。首先,选择整幅图像中亮度最大的前0.1%像素的平均值作为大气光值;然后,利用自适应最小值滤波的改进暗通道模型和亮度模型分别对前景区域和天空区域求解透射率,在将其加权融合得到粗透射率的基础上,使用梯度域导向滤波对透射率进行细化;最后,通过大气散射模型和伽马校正复原出无雾图像。实验结果表明,在包含天空区域的雾图上本文算法能够快速有效地解决天空区域的光晕效应和图像失真问题,复原出来的图像清晰自然,保留了较多的细节信息,在主观和客观2个评价方面均优于其他对比算法。
基于部分卷积的文字图像不规则干扰修复算法研究
段荧, 龙华, 瞿于荃, 邵玉斌, 杜庆治,
2021, 43(09): 1634-1644. doi:
摘要
(
154
)
PDF
(1372KB) (
163
)
针对文字图像中不规则干扰与文字粘连导致误识字的问题,提出了基于部分卷积的文字图像不规则干扰修复算法。研究分析了若干常见字体的文本图像特点,建立文字图像数据库,使其与干扰掩码数据库进行图像融合后对模型的修复效果进行评测,并对不同等级的修复情况进行分类测试。实验表明,所提模型在保证原有文字信息不损失的前提下,根据当前文字的现有部件对缺失部分进行预测,峰值信噪比最高达到32.46 dB,结构相似性最高为0.954,最佳损失值达到0.015,修复前后文字识别率提升2785%,对隶书、篆书、甲骨文、行书4种古代文字缺损图像进行修复后峰值信噪比最高达到30.46 dB,结构相似性最高为0.964。
人工智能与数据挖掘
基于改进CHI和PCA的文本特征选择
文武, 万玉辉, 张许红, 文志云,
2021, 43(09): 1645-1652. doi:
摘要
(
162
)
PDF
(790KB) (
135
)
针对文本数据中含有大量噪声和冗余特征,为获取更有代表性的特征集合,提出了一种结合改进卡方统计(ICHI)和主成分分析(PCA)的特征选择算法(ICHIPCA)。首先针对CHI算法忽略词频、文档长度、类别分布及负相关特性等问题,引入相应的调整因子来完善CHI计算模型;然后利用改进后的CHI计算模型对特征进行评价,选取靠前特征作为初选特征集合;最后通过PCA算法在基本保留原始信息的情况下提取主要成分,实现降维。通过在KNN分类器上验证,与传统特征选择算法IG、CHI等同类型算法相比,ICHIPCA算法在多种特征维度及多个类别下,实现了分类性能的提升。
融合社交信息的局部潜在空间推荐方法
魏云鹤, 马慧芳, 姜彦斌, 宿云
2021, 43(09): 1653-1659. doi:
摘要
(
137
)
PDF
(647KB) (
164
)
随着社交网络的发展,越来越多的研究利用社交信息来改进传统推荐算法的性能,然而现有的推荐算法大多忽略了用户兴趣的多样化,未考虑用户在不同社交维度中关心的层面不同,导致推荐质量较差。为了解决这个问题,提出了一种同时考虑全局潜在因子和不同子集特定潜在因子的推荐方法LSFS,使得推荐过程既考虑了用户共享偏好又考虑了用户在不同子集中的特定偏好。考虑到参与到不同社交维度的用户对不同的项目感兴趣,首先根据用户的社交关系将用户划分到不同的子集中;其次通过截断奇异值分解技术建模用户对项目的评分,其中全局潜在因子捕获用户共享的层面,而不同用户子集的特定潜在因子捕获用户关心的特定层面;最后,结合全局与局部潜在因子预测用户对未评分项目的评分。实验结果表明该方法可行且有效。
基于同义词词林和规则的中文远程监督人物关系抽取方法
谢明鸿, 冉强, 王红斌,
2021, 43(09): 1661-1667. doi:
摘要
(
148
)
PDF
(825KB) (
122
)
远程监督是一种根据知识库自动对齐实体进行大规模语料标注的方法,但过强的假设导致获取的语料混有大量的噪声。针对这一问题,提出了一种基于同义词词林和规则的中文远程监督人物关系抽取方法,该方法基于多示例学习思想将人物关系句子划分为包(bag)级,利用同义词词林对人物关系触发词做词频统计,确定最大词频候选关系和次大词频候选关系,再结合特定的人物关系判别规则判断人物关系。对bag判断出某个人物关系后,再对其进一步进行多关系预测,最终得到人物关系预测结果。在大规模的中文远程监督人物关系抽取公开数据集(IPRE)上的实验结果表明,所提方法得到的结果具有较好的F1值,并且能识别远程监督数据测试集标签所没标注出的人物关系。
结合BERT和BiSRU-AT的中文文本情感分类
黄泽民, 吴晓鸰, 吴迎岗, 凌捷
2021, 43(09): 1668-1674. doi:
摘要
(
334
)
PDF
(798KB) (
188
)
针对传统语言模型的词向量表示无法解决多义词表征的问题,以及现有情感分析模型不能充分捕获长距离语义信息的问题,提出了一种结合BERT和BiSRU-AT的文本情感分类模型BERT- BiSRU-AT。首先用预训练模型BERT获取融合文本语境的词向量表征;然后利用双向简单循环单元(BiSRU)二次提取语义特征和上下文信息;再利用注意力机制对BiSRU层的输出分配权重以突出重点信息;最后使用Softmax激励函数得出句子级别的情感概率分布。实验采用中文版本的推特数据集和酒店评论数据集。实验结果表明,结合BERT和BiSRU-AT的文本情感分析模型能够获得更高的准确率,双向简单循环模型和注意力机制的引入能有效提高模型的整体性能,有较大的实用价值。
基于列表结构的加权可擦除项集挖掘算法
文凯, 许萌萌, 张许红,
2021, 43(09): 1676-1683. doi:
摘要
(
111
)
PDF
(832KB) (
136
)
可擦除项集挖掘是从大规模产品数据库中挖掘出低利润项集,以解决厂商财务危机的方法。传统挖掘方法只处理静态产品数据库,在提取可擦除项集时忽略项本身的权值。为解决现有可擦除项集挖掘算法考虑条件单一、效率低下的问题,提出一种有效的在增量数据集上挖掘加权可擦除项集的算法WELI。该算法综合考虑了数据不断积累和项具有不同重要性的因素,采用简洁的列表结构减少内存消耗,利用权重条件进行项集修剪,并结合包含索引和差集思想简化增益的计算过程,以实现高效的增量挖掘操作。实验表明:就运行时间和内存消耗而言,该算法在稠密数据集和稀疏数据集上均具有良好的实验效果,就可伸缩性而言,该算法也优于以往算法。
基于组合预测模型的小样本轴承故障分类诊断
孙庞博, 符琦, 陈安华, 蒋云霞
2021, 43(09): 1684-1691. doi:
摘要
(
149
)
PDF
(900KB) (
175
)
滚动轴承是旋转机械内常出现问题的重要部件,其故障情况复杂且难以诊断。基于小样本故障数据学习环境,针对小样本学习在提取真实特征值与目标特征值时有较大差异且泛化能力较弱的问题,提出一种采用半监督变分自编码器与LightGBM分类模型相结合的小样本学习模型LSVAE,并利用基于高斯过程的贝叶斯优化改进算法对LightGBM的超参数进行了优化处理,有效地解决了小样本学习性能不稳定,提取特征能力弱,过拟合等问题,并在凯斯西储大学发布的轴承实验数据集上进行了对比实验,结果表明LSVAE模型在面向小样本数据空间时有着更优的诊断准确率。
基于扩展自然邻居的无参分类方法
曹文态, 杨德刚, 冯骥,
2021, 43(09): 1692-1699. doi:
摘要
(
122
)
PDF
(668KB) (
111
)
基于k-最近邻(kNN)的分类方法是实现各种高性能模式识别技术的基础,然而这些方法很容易受到邻域参数k的影响,在完全不了解数据集特性的情况下想要得出各种数据集的邻域是比较困难的。基于上述问题,介绍了一种新的监督分类方法:扩展自然邻居(ENaN)方法,并证明了该方法在不人为选择邻域参数的情况下提供了一种更好的分类结果。与原有的基于kNN需要先验k的方法不同,ENaN方法在不同的阶段预测不同的k值。因此,无论是在训练阶段还是在测试阶段,ENaN方法都能从动态邻域信息中学习到更多的信息,从而提供更好的分类结果。在不同类型不同规模的真实数据上的分类检测结果均表明了ENaN方法的有效性。
基于负相关性增强的不平衡多标签学习算法
程玉胜, 曹天成, 王一宾, 郑伟杰
2021, 43(09): 1700-1710. doi:
摘要
(
152
)
PDF
(756KB) (
129
)
由于标签空间过大,标签分布不平衡问题在多标签数据集中广泛存在,解决该问题在一定程度上可以提高多标签学习的分类性能。通过标签相关性提升分类性能是解决该问题的一种最常见的有效策略,众多学者进行了大量研究,然而这些研究更多地是采用基于正相关性策略提升性能。在实际问题中,除了正相关性外,标签的负相关性也可能存在,如果在考虑正相关性的同时,兼顾负相关性,无疑能够进一步改善分类器的性能。基于此,提出了一种基于负相关性增强的不平衡多标签学习算法——MLNCE,旨在解决多标签不平衡问题的同时,兼顾标签间的正负相关性,从而提高多标签分类器的分类性能。首先利用标签密度信息改造标签空间;然后在密度标签空间中探究标签真实的正反相关性信息,并添加到分类器目标函数中;最后利用加速梯度下降法求解输出权重以得到预测结果。在11个多标签标准数据集上与其他6种多标签学习算法进行对比实验,结果表明MLNCE算法可以有效提高分类精度。
作者中心
作者投稿查稿系统
作者须知
论文模板
版权转让协议
审稿中心
外审专家审稿
编委审稿
主编审稿
编辑部办公
在线期刊
当期目录
最新录用
过刊浏览
出版专刊
下载排行
引用排行