《HALCON机器视觉与算法原理编程实践》第14章 机器视觉中的深度学习

文章目录

  • 14.1 深度学习的基本概念
    • 14.1.1 Halcon中深度学习的应用
    • 14.1.2 系统需求
    • 14.1.3 搭建深度学习环境
    • 14.1.4 Halcon的通用深度学习流程
    • 14.1.5 数据
    • 14.1.6 网络与训练过程
    • 14.1.7 随机梯度下降法
    • 14.1.8 迁移学习
    • 14.1.9 设置训练参数:超参数
    • 14.1.10 验证训练结果
  • 14.2 分类
    • 14.2.1 准备网络和数据
    • 14.2.2 训练网络并评估训练过程
    • 14.2.3 分类器的应用与评估
    • 14.2.4 实际检测
    • 14.2.5 评估分类检测结果
  • 14.3 物体检测
    • 14.3.1 物体检测的原理
    • 14.3.2 物体检测的数据集
    • 14.3.3 模型参数
    • 14.3.4 评估检测结果
    • 14.3.5 物体检测步骤
  • 14.4 语义分割

深度学习是模仿人类大脑认识世界的方式,使用神经网络算法对视觉图像的各层级的特征进行提取。它突破了传统的分类与检测算法的计算性能的局限性,尤其在分类、物体识别、分割方面表现良好。

Halcon从17.12版本开始支持深度学习。

本章将介绍如何在Halcon中应用深度学习算法进行训练、评估和检测。

14.1 深度学习的基本概念

深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合底层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的概念由Hinton等人于2006年提出。基于深度置信网络(Deep Belief Network, DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外LeCun等人提出的卷积神经网络也是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。

深度学习和传统机器学习相比有以下三个优点:

1、高效率:例如用传统算法去评估一个棋局的优劣,可能需要专业的棋手花大量的时间去研究影响棋局的每一个因素,而且还不一定准确。而利用深度学习技术只要设计好网络框架,就不需要考虑繁琐的特征提取的过程。这也是 DeepMind公司的AlphaGo 能够强大到轻松击败专业的人类棋手的原因,它节省了大量的特征提取的时间,使得本来不可行的事情变为可行。

2、可塑性:在利用传统算法去解决一个问题时,调整模型的代价可能是把代码重新写一遍,这使得改进的成本巨大。深度学习只需要调整参数,就能改变模型。这使得它具有很强的灵活性和成长性,一个程序可以持续改进,然后达到接近完美的程度。

3、普适性:神经网络是通过学习来解决问题,可以根据问题自动建立模型,所以能够适用于各种问题,而不是局限于某个固定的问题。

14.1.1 Halcon中深度学习的应用

在Halcon中,深度学习主要用于以下3个方向:
(1)分类
(2)物体检测
(3)语义分割

14.1.2 系统需求

训练网络需要NVIDIA的GPU,GPU的计算能力至少需要3.0,且支持CUDA 10.0,建议使用SSD硬盘,以加快训练速度。

这里我使用的显卡为:丽台P4000

安装CUDA 10.0:
https://developer.nvidia.com/cuda-10.0-download-archive?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exelocal

参考:
如何在Windows x64系统下面玩Halcon 17.12 深度学习?https://www.51halcon.com/thread-956-1-1.html

cuda安装教程+cudnn安装教程
https://blog.csdn.net/sinat_23619409/article/details/84202651

14.1.3 搭建深度学习环境

在例程库找到:
classify_fruit_deep_learning.hdev
路径: MVTec\HALCON-17.12-Progress\examples\hdevelop\Deep-Learning\Classification

* This example shows how to train a deep learning fruit classifier, along with* a short overview of the necessary steps.* * Initialization.dev_update_off ()dev_close_window ()WindowWidth := 800WindowHeight := 600dev_open_window_fit_size (0, 0, WindowWidth, WindowHeight, -1, -1, WindowHandle)set_display_font (WindowHandle, 16, 'mono', 'true', 'false')* * Some procedures use a random number generator. Set the seed for reproducibility.set_system ('seed_rand', 42)* * Introduction text.try    dev_disp_introduction_text ()catch (Exception)    if (Exception[0] == 5200)        dev_disp_missing_images_text ()        stop ()    else        throw (Exception)    endifendtrystop ()dev_close_window ()dev_resize_window_fit_size (0, 0, WindowWidth, WindowHeight, -1, -1)dev_clear_window ()* * ** TRAINING *** * Read one of the pretrained networks.read_dl_classifier ('pretrained_dl_classifier_compact.hdl', DLClassifierHandle)* Path to directory with images.RawDataFolder := 'food/' + ['apple_braeburn','apple_golden_delicious','apple_topaz','peach','pear']* Get the raw data set with labels.read_dl_classifier_data_set (RawDataFolder, 'last_folder', RawImageFiles, Labels, LabelIndices, Classes)* Path of output directory for preprocessed data set.PreprocessedFolder := 'fruit_preprocessed'* Set to true to overwrite existing images.OverwritePreprocessingFolder := false* By default, we will remove the folder with the preprocessed data.* In a real application you might want to keep this data (if the* preprocessing does not change to save time).RemovePreprocessingAfterExample := true* * If the preprocessed has been generated already,* we skip this part.file_exists (PreprocessedFolder, FileExists)if (not FileExists or OverwritePreprocessingFolder)    * Preprocessing of the raw data.    if (FileExists)        remove_dir_recursively (PreprocessedFolder)    endif    * Create output directories.    make_dir (PreprocessedFolder)    for I := 0 to |Classes| - 1 by 1        make_dir (PreprocessedFolder + '/' + Classes[I])    endfor    * Define output file names.    parse_filename (RawImageFiles, BaseNames, Extensions, Directories)    ObjectFilesOut := PreprocessedFolder + '/' + Labels + '/' + BaseNames + '.hobj'    * Check if output file names    * overlap in the preprocessed folder.    * This is just a sanity check.    check_output_file_names_for_duplicates (RawImageFiles, ObjectFilesOut)    * Preprocess images and save them as hobj files.    for I := 0 to |RawImageFiles| - 1 by 1        read_image (Image, RawImageFiles[I])        * Preprocess the image with a custom procedure        * in order to remove the background.        preprocess_dl_fruit_example (Image, ImagePreprocessed, DLClassifierHandle)        * Write preprocessed image to hobj file.        write_object (ImagePreprocessed, ObjectFilesOut[I])        dev_disp_preprocessing_progress (I, RawImageFiles, PreprocessedFolder, WindowHandle)    endfor    dev_clear_window ()    dev_disp_text ('Preprocessing done.', 'window', 'top', 'left', 'black', [], [])endif* * 2) Split data into training, validation, and test set.* * Read the data, i.e., the paths of the images and their respective ground truth labels.read_dl_classifier_data_set (PreprocessedFolder, 'last_folder', ImageFiles, Labels, LabelsIndices, Classes)* * Split the data into three subsets,* for training 70%, validation 15%, and testing 15%.TrainingPercent := 70ValidationPercent := 15split_dl_classifier_data_set (ImageFiles, Labels, TrainingPercent, ValidationPercent, TrainingImages, TrainingLabels, ValidationImages, ValidationLabels, TestImages, TestLabels)* * Set training hyper-parameters.* In order to retrain the neural network, we have to specify* the class names of our classification problem.set_dl_classifier_param (DLClassifierHandle, 'classes', Classes)* Set the batch size.BatchSize := 64set_dl_classifier_param (DLClassifierHandle, 'batch_size', BatchSize)* Try to initialize the runtime environment.try    set_dl_classifier_param (DLClassifierHandle, 'runtime_init', 'immediately')catch (Exception)    dev_disp_error_text (Exception)    if (RemovePreprocessingAfterExample and Exception[0] != 4104)        remove_dir_recursively (PreprocessedFolder)        dev_disp_text ('Preprocessed data in folder "' + PreprocessedFolder + '" have been deleted.', 'window', 'bottom', 'left', 'black', [], [])    endif    stop ()endtry* For this data set, an initial learning rate of 0.001* has proven to yield good results.InitialLearningRate := 0.001set_dl_classifier_param (DLClassifierHandle, 'learning_rate', InitialLearningRate)* In this example, we reduce the learning rate* by a factor of 1/10 every 4th epoch.LearningRateStepEveryNthEpoch := 30LearningRateStepRatio := 0.1* We iterate 100 times over the full training set.NumEpochs := 100* * Train the classifier.* dev_clear_window ()dev_disp_text ('Training has started...', 'window', 'top', 'left', 'black', [], [])* PlotIterationInterval := 20FileName := 'classifier_fruit.hdl'train_fruit_classifier (DLClassifierHandle, FileName, NumEpochs, TrainingImages, TrainingLabels, ValidationImages, ValidationLabels, LearningRateStepEveryNthEpoch, LearningRateStepRatio, PlotIterationInterval, WindowHandle)dev_disp_text ('Press Run (F5) to continue', 'window', 'bottom', 'right', 'black', [], [])stop ()clear_dl_classifier (DLClassifierHandle)read_dl_classifier (FileName, DLClassifierHandle)* * Compute the confusion matrix for the validation data set.get_error_for_confusion_matrix (ValidationImages, DLClassifierHandle, Top1ClassValidation)gen_confusion_matrix (ValidationLabels, Top1ClassValidation, [], [], WindowHandle, ConfusionMatrix)dev_disp_text ('Validation data', 'window', 'top', 'left', 'gray', 'box', 'false')dev_disp_text ('Press Run (F5) to continue', 'window', 'bottom', 'right', 'black', [], [])stop ()clear_matrix (ConfusionMatrix)dev_clear_window ()* * ** INFERENCE *** * This part shows a typical inference scenario.* Read the classifier.clear_dl_classifier (DLClassifierHandle)read_dl_classifier (FileName, DLClassifierHandle)* If it is not possible to accumulate more than one image* at a time the batch size should be set to 1.set_dl_classifier_param (DLClassifierHandle, 'batch_size', 1)* This initializes the runtime environment immediately.set_dl_classifier_param (DLClassifierHandle, 'runtime_init', 'immediately')* dev_resize_window_fit_size (0, 0, WindowWidth, WindowHeight, -1, -1)dev_disp_inference_text ()stop ()* Read / acquire images in a loop and classify them.for Index := 0 to 20 by 1    ImageFile := RawImageFiles[floor(rand(1) * |RawImageFiles|)]    read_image (Image, ImageFile)    dev_resize_window_fit_image (Image, 0, 0, -1, -1)    preprocess_dl_fruit_example (Image, ImagePreprocessed, DLClassifierHandle)    apply_dl_classifier (ImagePreprocessed, DLClassifierHandle, DLClassifierResultHandle)    get_dl_classifier_result (DLClassifierResultHandle, 'all', 'predicted_classes', PredictedClass)    clear_dl_classifier_result (DLClassifierResultHandle)    *     dev_display (Image)    Text := 'Predicted class: ' + PredictedClass    dev_disp_text (Text, 'window', 'top', 'left', 'white', 'box', 'false')    dev_disp_text ('Press Run (F5) to continue', 'window', 'bottom', 'right', 'black', [], [])    stop ()endforstop ()clear_dl_classifier (DLClassifierHandle)if (RemovePreprocessingAfterExample)    remove_dir_recursively (PreprocessedFolder)    dev_disp_text ('End of program.\nPreprocessed data have been deleted.', 'window', 'bottom', 'right', 'black', [], [])else    dev_disp_text ('      End of program      ', 'window', 'bottom', 'right', 'black', [], [])endif

训练过程:

14.1.4 Halcon的通用深度学习流程

由于各种深度学习方法解决的具体任务和所需的数据各不相同,因此需要根据具体的任务需求决定采用哪种深度学习方法。

  1. 准备网络和数据
  2. 训练网络并评估训练过程
  3. 应用网络与评估网络
  4. 实际检测

14.1.5 数据

数据在深度学习中表示图像和图像中的信息,这些信息需要以网络能理解的方式进行提供。不同的神经网络对于所需的信息以及提供这些信息的方式有不同的要求,详情可参考所选的网络的说明。

14.1.6 网络与训练过程

Halcon的深度学习网络类似于一个“黑盒”,它读取输入的图像,经过多层网络的计算推理,输出图像的预测结果。

14.1.7 随机梯度下降法

14.1.8 迁移学习

目标
将某个领域或任务上学习到的知识或模式应用到不同但相关的领域或问题中。

主要思想
从相关领域中迁移标注数据或者知识结构、完成或改进目标领域或任务的学习效果。

14.1.9 设置训练参数:超参数

超参数是一种认为设置的参数,他不同于网络模型参数可以在训练中进行估计和优化,超参数并不会在训练的过程中学习得到,也不会随着网络的优化而调整,但是仍可以根据训练的效果设置一定的更改策略,明确在训练过程中何时以及如何去修改这些参数。

除了训练数据和超参数,还有许多方面都会影响训练的结果。如果增加大量的训练数据,可能也会提高网络的性能。

14.1.10 验证训练结果

  1. 训练中验证
  2. 欠拟合和过拟合
  3. 混淆矩阵

14.2 分类

使用深度学习进行分类,就是对输入图像进行处理,并且输出一系列属于指定类别的分值。分值越高,属于该类的可能性也就越大,这一过程是使用分类器进行的。

14.2.1 准备网络和数据

一种是训练数据,另一种是用于验证的数据。

14.2.2 训练网络并评估训练过程

当网络读取完毕且准备好了之后数据集和分类之后,即可开始训练。

  1. 设置超参数
  2. 训练网络
  3. 如果想要直观的查看训练结果,可以将训练结果可视化

14.2.3 分类器的应用与评估

分类器训练完成之后,为了更好地应用于实际检测,需要先使用测试数据集评估分类器性能。

14.2.4 实际检测

在检测前,根据网络的需要,先对图像进行预处理,然后在Halcon中使用apply_dl_classifier算子,即可进行分类。

14.2.5 评估分类检测结果

当图像的分类结束之后,会得到图像分类的一系列置信分数。所有的图像都会被分类,根据预测效率可以进行评估。

比较理想的情况是,分类器实现高精度、高召回率。

14.3 物体检测

与分类相比,物体检测更加复杂,它包含两个任务,一是检测目标是什么,二是检测目标在哪。

14.3.1 物体检测的原理

物体检测包括两方面的任务,首先是找到目标对象的位置,然后是分类。
(1)生成不同的特征图
(2)将不同网络层中的各个特征图结合起来,就得到了包含高层级和低层级的特征图
(3)以所选择的特征图作为输入,学习如何在图像中对潜在的目标进行定位和分类。

在Halcon中使用深度学习进行物体检测,使用的是比较通用的深度学习模型。

14.3.2 物体检测的数据集

与分类检测类似,物体检测的数据集页包括用于训练、验证和测试的数据集3类。

14.3.3 模型参数

~

14.3.4 评估检测结果

~

14.3.5 物体检测步骤

物体检测的一般步骤如下:

  1. 创建模型和数据集的预处理
  2. 训练模型
  3. 评估模型
  4. 实际检测

14.4 语义分割

语义分割对图像中的每一个元素都分配一个给定的分类,用于实现对图像的高层次理解,是深度学习的一个重要应用方向。

(0)

相关推荐