论文答辩

发布时间:2026年03月12日  作者:aiycxz.cn

日期:2019年5月26日答辩委员会主席:______ 李建平 ______评 阅 人:______ 盲审 ____________ 盲审 ______2019年5月26日# 暨南大学硕士学位论文题名(中英对照):基于深度学习的图像识别研究 Research on Image Recognition Based on Deep Learning 作者姓名: 王超 指导教师姓名 刘波 及学位、职称: 博士、教授 学科、专业名称: 计算机科学与技术 学位类型: 学术学位 论文提交日期: 2019年4月22日 论文答辩日期: 2019年5月26日 答辩委员会主席: 李建平 学位授予单位和日期: 暨南大学 2019年6月 摘要近年来,随着人工智能技术的快速发展,图像识别技术作为人工智能领域的一个重要分支,其应用范围越来越广,如人脸识别、自动驾驶、医疗影像分析等。图像识别技术主要分为图像分类、目标检测和图像分割等。其中,图像分类是图像识别技术的基础,目标检测和图像分割等任务都是基于图像分类任务发展而来。因此,本文主要研究基于深度学习的图像分类技术。卷积神经网络在图像分类任务中取得了巨大的成功,但是其模型结构复杂、参数多、计算量大,导致其很难在计算资源有限的移动设备上部署。为了在移动设备上部署图像分类模型,需要设计轻量化的卷积神经网络。目前,轻量化卷积神经网络主要有两种设计思路:一是设计轻量化的卷积神经网络模型,如 MobileNet、ShuffleNet 等;二是对现有的卷积神经网络模型进行压缩,如剪枝、量化、知识蒸馏等。本文主要研究基于知识蒸馏的模型压缩方法。知识蒸馏是一种模型压缩方法,它通过将教师模型的知识迁移到学生模型上,使得学生模型在保持模型参数较少的同时,获得与教师模型相近的识别精度。传统的知识蒸馏方法主要利用教师模型的输出作为软标签来指导学生模型训练,但是这种方法忽略了教师模型中间层的特征信息。为了充分利用教师模型的知识,本文提出了一种基于特征图的知识蒸馏方法。该方法通过将教师模型和学生模型的中间层特征图进行对齐,使得学生模型能够学习到教师模型的中间层特征信息。实验结果表明,本文提出的方法能够有效地提高学生模型的识别精度。此外,为了进一步提高学生模型的识别精度,本文还提出了一种基于注意力机制的知识蒸馏方法。该方法通过引入注意力机制,使得学生模型能够更加关注教师模型中的重要特征。实验结果表明,本文提出的方法能够进一步提高学生模型的识别精度。本文的主要贡献如下:1. 提出了一种基于特征图的知识蒸馏方法,该方法通过将教师模型和学生模型的中间层特征图进行对齐,使得学生模型能够学习到教师模型的中间层特征信息。2. 提出了一种基于注意力机制的知识蒸馏方法,该方法通过引入注意力机制,使得学生模型能够更加关注教师模型中的重要特征。3. 在 CIFAR-10、CIFAR-100 和 ImageNet 数据集上进行了实验,验证了本文提出的方法的有效性。关键词:图像识别;深度学习;卷积神经网络;知识蒸馏;模型压缩# AbstractIn recent years, with the rapid development of artificial intelligence technology, image recognition technology, as an important branch of the field of artificial intelligence, has been applied more and more widely, such as face recognition, autonomous driving, medical image analysis, etc. Image recognition technology is mainly divided into image classification, object detection and image segmentation. Among them, image classification is the basis of image recognition technology, and tasks such as object detection and image segmentation are developed based on image classification tasks. Therefore, this paper mainly studies image classification technology based on deep learning.Convolutional neural networks have achieved great success in image classification tasks, but their model structure is complex, with many parameters and large computational complexity, making it difficult to deploy on mobile devices with limited computing resources. In order to deploy image classification models on mobile devices, it is necessary to design lightweight convolutional neural networks. At present, there are two main design ideas for lightweight convolutional neural networks: one is to design lightweight convolutional neural network models, such as MobileNet, ShuffleNet, etc.; the other is to compress existing convolutional neural network models, such as pruning, quantization, knowledge distillation, etc. This paper mainly studies model compression methods based on knowledge distillation.Knowledge distillation is a model compression method that transfers the knowledge of the teacher model to the student model, so that the student model can achieve similar recognition accuracy as the teacher model while keeping the model parameters small. Traditional knowledge distillation methods mainly use the output of the teacher model as soft labels to guide the training of the student model, but this method ignores the feature information of the intermediate layers of the teacher model. In order to make full use of the knowledge of the teacher model, this paper proposes a knowledge distillation method based on feature maps. This method aligns the intermediate layer feature maps of

相关文章