JP7392425B2 - Learning devices, learning methods and programs - Google Patents

Learning devices, learning methods and programs Download PDF

Info

Publication number
JP7392425B2
JP7392425B2 JP2019214617A JP2019214617A JP7392425B2 JP 7392425 B2 JP7392425 B2 JP 7392425B2 JP 2019214617 A JP2019214617 A JP 2019214617A JP 2019214617 A JP2019214617 A JP 2019214617A JP 7392425 B2 JP7392425 B2 JP 7392425B2
Authority
JP
Japan
Prior art keywords
learning
evaluation
image
learning model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019214617A
Other languages
Japanese (ja)
Other versions
JP2021086381A (en
Inventor
泰之 池田
博幸 枦山
健利 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2019214617A priority Critical patent/JP7392425B2/en
Priority to CN202011079035.0A priority patent/CN112862062A/en
Publication of JP2021086381A publication Critical patent/JP2021086381A/en
Application granted granted Critical
Publication of JP7392425B2 publication Critical patent/JP7392425B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Description

本開示は、学習装置、学習方法およびプログラムに関する。 The present disclosure relates to a learning device, a learning method, and a program.

近年、製造ラインでは、製造される製品を撮影装置により撮影し、得られた観測画像に基づいて製品の良否を自動的に検査する技術の開発が進んでいる。良品および不良品の両方のサンプルが複数存在する場合、良品画像および不良品画像を用いた機械学習を行なうことにより得られた識別器によって、製品の良否を判定できる。しかしながら、通常、良品に比べ不良品を多く集めることが困難である。そのため、複数の良品画像を用いた機械学習により得られた学習モデルによって良否を判定する技術が開発されている(非特許文献1~3)。非特許文献1~3では、複数の良品画像の特徴を抽出する学習モデル(学習済モデル)が生成される。検査時には、学習モデルを用いて、観測画像から欠陥以外の特徴が抽出され、欠陥のない画像が復元される。復元された画像と観測画像とが比較されることにより、欠陥検査が実施される。なお、画像を出力するタイプの機械学習モデルは一般に生成モデルと呼ばれるが、本明細書では、単に学習モデルと記載する。 2. Description of the Related Art In recent years, progress has been made in the development of technology for automatically inspecting the quality of a manufactured product on a manufacturing line using a photographing device and checking the quality of the product based on the obtained observation image. When a plurality of samples of both non-defective products and defective products exist, the quality of the product can be determined using a classifier obtained by performing machine learning using images of non-defective products and images of defective products. However, it is usually difficult to collect more defective products than good products. Therefore, techniques have been developed for determining quality using a learning model obtained by machine learning using a plurality of images of non-defective products (Non-Patent Documents 1 to 3). In Non-Patent Documents 1 to 3, a learning model (trained model) that extracts features of a plurality of non-defective product images is generated. During inspection, features other than defects are extracted from the observed image using a learning model, and a defect-free image is restored. Defect inspection is performed by comparing the restored image and the observed image. Note that a type of machine learning model that outputs an image is generally called a generative model, but in this specification, it is simply referred to as a learning model.

Bergmann、他4名、“Improving Unsupervised Defect Segmentation by Applying Structural Similarity To Autoencoders”、arXiv:1807.02011v3、2019年2月1日Bergmann, et al., “Improving Unsupervised Defect Segmentation by Applying Structural Similarity To Autoencoders”, arXiv:1807.02011v3, February 1, 2019. Schlegl、他4名、“Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery”、arXiv:1703.05921v1、2017年3月17日Schlegl, et al., “Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery”, arXiv:1703.05921v1, March 17, 2017. 豊田健太、堀田一弘、「部分空間法とロバスト統計を用いた不良箇所の自動特定」、SSII2016、IS3-22、2016年6月10日Kenta Toyota, Kazuhiro Hotta, "Automatic identification of defective locations using subspace method and robust statistics", SSII2016, IS3-22, June 10, 2016

学習モデルの性能を高めるために、学習操作が繰り返し実施される。しかしながら、学習操作を増やしても必ずしも性能が向上するわけではなく、最新の学習モデルが最適であえるとは限らない。そのため、学習モデルの調整に手間がかかる。 Learning operations are performed iteratively to improve the performance of the learning model. However, increasing the number of learning operations does not necessarily improve performance, and the latest learning model may not always be optimal. Therefore, it takes time and effort to adjust the learning model.

本開示は、上記の問題に鑑みてなされたものであり、その目的は、学習モデルの調整の手間を削減可能な学習装置、学習方法およびプログラムを提供することである。 The present disclosure has been made in view of the above problems, and its purpose is to provide a learning device, a learning method, and a program that can reduce the effort of adjusting a learning model.

本開示の一例によれば、学習装置が、学習部と、評価部と、受付部と、記録部と、出力部とを備える。学習部は、対象物の写る1以上の学習用画像を含む学習用画像グループを用いた機械学習を行なうことにより、対象物の属性を判定するために利用される学習モデルを生成する。評価部は、評価用画像グループに含まれる1以上の評価用画像を学習モデルに入力することにより、学習モデルの性能の評価を行なう。受付部は、学習用画像グループを更新する第1操作を受け付ける。記録部は、第1操作ごとに、第1操作の内容と、更新後の学習用画像グループを用いて生成された学習モデルに対する評価の結果とを対応付けて記録する。出力部は、記録部によって記録された履歴情報を出力する。 According to an example of the present disclosure, a learning device includes a learning section, an evaluation section, a reception section, a recording section, and an output section. The learning unit generates a learning model used to determine the attributes of the object by performing machine learning using a learning image group including one or more learning images of the object. The evaluation unit evaluates the performance of the learning model by inputting one or more evaluation images included in the evaluation image group to the learning model. The reception unit receives a first operation for updating the learning image group. The recording unit records, for each first operation, the content of the first operation and the result of evaluating the learning model generated using the updated learning image group in association with each other. The output unit outputs the history information recorded by the recording unit.

この開示によれば、ユーザは、記録部によって記録された履歴情報を確認することにより、過去に実施された複数の第1操作それぞれに対応する学習モデルのうち、どのタイミングの学習モデルの性能が最も高いか容易に把握できる。これにより、ユーザは、第1操作ごとの学習モデルの性能を確認しながら、学習モデルを適宜調整できる。その結果、学習モデルの調整の手間を削減できる。 According to this disclosure, by checking the history information recorded by the recording unit, the user can determine the performance of the learning model at which timing among the learning models corresponding to each of a plurality of first operations performed in the past. You can easily figure out which is the highest. Thereby, the user can adjust the learning model as appropriate while checking the performance of the learning model for each first operation. As a result, the effort required to adjust the learning model can be reduced.

上述の開示において、学習モデルは、対象物の写る画像が入力され、対象物の良否を判定するための出力情報を出力する。評価用画像グループは、良品である対象物の写る1以上の第1評価用画像と、不良品である対象物の写る1以上の第2評価用画像とを含む。評価部は、評価の結果として、(a)1以上の第1評価用画像のうち、学習モデルに入力することにより得られる出力情報に基づいて対象物が不良品と判定された第1評価用画像の第1割合に応じた値と、(b)1以上の第2評価用画像のうち、学習モデルに入力することにより得られる出力情報に基づいて対象物が良品と判定された第2評価用画像の第2割合に応じた値とを算出する。 In the above-mentioned disclosure, the learning model receives an image of the target object as input, and outputs output information for determining the quality of the target object. The evaluation image group includes one or more first evaluation images in which a target object is a non-defective product, and one or more second evaluation images in which a target object is a defective product. The evaluation unit determines, as a result of the evaluation, (a) among the one or more first evaluation images, the first evaluation image in which the object is determined to be defective based on output information obtained by inputting it to the learning model; A second evaluation in which the object is determined to be a good product based on a value corresponding to the first ratio of the image and (b) output information obtained by inputting it into the learning model among the 1 or more second evaluation images. A value corresponding to the second ratio of the image for use is calculated.

上記の開示によれば、ユーザは、第1割合に応じた値を確認することにより第1割合を把握でき、第2割合に応じた値を確認することにより第2割合を把握できる。第1割合は、良品が不良品として判定される割合である。第2割合は、不良品が良品として判定される割合である。これにより、ユーザは、第1割合および第2割合が所望の範囲内になるように、学習モデルを調整できる。 According to the above disclosure, the user can understand the first ratio by checking the value according to the first ratio, and can understand the second ratio by checking the value according to the second ratio. The first ratio is the ratio at which non-defective products are determined to be defective products. The second ratio is the ratio at which defective products are determined to be non-defective products. Thereby, the user can adjust the learning model so that the first ratio and the second ratio fall within a desired range.

上述の開示において、出力情報を用いた対象物の良否の判定は、出力情報が判定条件を満たすか否かに応じて実施される。評価部は、第2割合が予め定められた閾値以下となるように判定条件を決定する。 In the above-mentioned disclosure, the determination of the quality of the object using the output information is performed depending on whether the output information satisfies the determination condition. The evaluation unit determines the determination condition such that the second ratio is equal to or less than a predetermined threshold.

製造ラインでは、不良品が良品として出荷されることをなるべく回避する必要がある。第2割合は、不良品が良品と判定される割合に対応する。上記の開示によれば、第2割合が予め定められた閾値以下となるような判定条件の下で実施された良否の判定結果に基づいて、学習モデルの性能の評価が行なわれる。これにより、第2割合が閾値以下となる判定条件下において、ユーザは、性能の高い学習モデルに調整できる。 On the production line, it is necessary to avoid shipping defective products as non-defective products as much as possible. The second ratio corresponds to the ratio at which defective products are determined to be non-defective products. According to the above disclosure, the performance of the learning model is evaluated based on the pass/fail determination result performed under the determination condition that the second ratio is equal to or less than a predetermined threshold value. Thereby, under the determination condition that the second ratio is equal to or less than the threshold value, the user can adjust the learning model to a high-performance learning model.

上述の開示において、対象物の属性を判定する判定装置に学習モデルを設定する設定部をさらに備える。記録部は、第1操作ごとに、更新後の学習用画像グループをさらに記録する。設定部は、履歴情報の中から指定された第1操作に対応して記録された学習用画像グループを用いて生成された学習モデルを判定装置に設定する。 In the above disclosure, the determination device that determines attributes of an object further includes a setting unit that configures a learning model. The recording unit further records the updated learning image group for each first operation. The setting unit sets, in the determination device, a learning model generated using a learning image group recorded in response to a first operation specified from the history information.

あるいは、記録部は、第1操作ごとに、更新後の学習用画像グループを用いて生成された学習モデルをさらに記録する。設定部は、履歴情報の中から指定された第1操作に対応して記録された学習モデルを判定装置に設定する。 Alternatively, the recording unit further records the learning model generated using the updated learning image group for each first operation. The setting unit sets, in the determination device, a learning model recorded in response to a first operation specified from the history information.

上記の開示によれば、ユーザは、履歴情報を見ながら、性能の高い学習モデルを判定装置に容易に設定できる。 According to the above disclosure, the user can easily set a learning model with high performance to the determination device while viewing the history information.

上述の開示において、受付部は、評価用画像グループを更新する第2操作をさらに受け付ける。記録部は、さらに、第2操作ごとに、第2操作の内容と、更新後の評価用画像グループを用いた評価の結果とを対応付けて記録する。 In the above disclosure, the reception unit further receives a second operation for updating the evaluation image group. The recording unit further records, for each second operation, the content of the second operation and the result of the evaluation using the updated evaluation image group in association with each other.

上記の開示によれば、ユーザは、評価用画像グループを更新したときの学習モデルの性能の評価結果の変化を確認できる。その結果、ユーザは、評価結果を確認することで評価用画像グループの最適化を行なうことができる。 According to the above disclosure, the user can check the change in the evaluation result of the performance of the learning model when the evaluation image group is updated. As a result, the user can optimize the evaluation image group by checking the evaluation results.

上述の開示において、学習部は、モデル生成用パラメータを用いて学習モデルを生成する。受付部は、モデル生成用パラメータを更新する第3操作をさらに受け付ける。記録部は、さらに、第3操作ごとに、第3操作の内容と、更新後のモデル生成用パラメータを用いて生成された学習モデルに対する評価の結果とを対応付けて記録する。 In the above disclosure, the learning unit generates a learning model using model generation parameters. The receiving unit further receives a third operation for updating model generation parameters. The recording unit further records, for each third operation, the content of the third operation and the result of evaluation of the learning model generated using the updated model generation parameters in association with each other.

上記の開示によれば、ユーザは、モデル生成用パラメータを更新したときの学習モデルの性能の評価結果の変化を確認できる。その結果、ユーザは、評価結果を確認することでモデル生成用パラメータの最適化を行なうことができる。 According to the above disclosure, the user can check changes in the performance evaluation results of the learning model when the model generation parameters are updated. As a result, the user can optimize the model generation parameters by checking the evaluation results.

上述の開示において、出力部は、第1操作ごとの第1操作の内容と評価の結果との一覧表を表示装置に表示させる。 In the above disclosure, the output unit causes the display device to display a list of first operation contents and evaluation results for each first operation.

上記の開示によれば、ユーザは、一覧表を見ることにより、操作に応じた学習モデルの性能の変化を確認できる。 According to the above disclosure, by viewing the list, the user can confirm changes in the performance of the learning model according to the operation.

上述の開示において、評価部は、学習モデルの性能を示す評価値を評価の結果として算出する。出力部は、第1操作ごとの評価値の推移を示すグラフを表示装置に表示させる。 In the above disclosure, the evaluation unit calculates an evaluation value indicating the performance of the learning model as an evaluation result. The output unit causes the display device to display a graph showing the transition of the evaluation value for each first operation.

上記の開示によれば、ユーザは、グラフを見ることにより、操作に応じた学習モデルの性能の変化を確認しやすくなる。 According to the above disclosure, by viewing the graph, the user can easily confirm changes in the performance of the learning model according to the operation.

本開示の一例によれば、学習方法は、対象物の写る1以上の学習用画像を含む学習用画像グループを用いた機械学習を行なうことにより、対象物の属性を判定するために利用される学習モデルを生成するステップと、評価用画像グループに含まれる1以上の評価用画像を学習モデルに入力することにより、学習モデルの性能の評価を行なうステップと、学習用画像グループを更新する操作を受け付けるステップと、操作ごとに、操作の内容と、更新後の学習用画像グループを用いて生成された学習モデルに対する評価の結果とを対応付けて記録するステップと、記録された履歴情報を出力するステップとを備える。 According to an example of the present disclosure, the learning method is used to determine attributes of an object by performing machine learning using a learning image group including one or more learning images in which the object is captured. A step of generating a learning model, a step of evaluating the performance of the learning model by inputting one or more evaluation images included in the evaluation image group to the learning model, and an operation of updating the learning image group. a step of accepting, a step of correlating and recording, for each operation, the content of the operation and the result of evaluation of the learning model generated using the updated training image group; and outputting the recorded history information. and a step.

本開示の一例によれば、プログラムは、上記の設定方法をコンピュータに実行させる。これらの開示によっても、学習モデルの調整の手間を削減できる。 According to an example of the present disclosure, a program causes a computer to execute the above setting method. These disclosures can also reduce the effort required to adjust the learning model.

本開示によれば、学習モデルの調整の手間を削減できる。 According to the present disclosure, it is possible to reduce the effort required to adjust a learning model.

実施の形態に係るシステムの全体構成を示す概略図である。1 is a schematic diagram showing the overall configuration of a system according to an embodiment. 図1に示す学習装置のハードウェア構成の一例を示す概略図である。2 is a schematic diagram showing an example of the hardware configuration of the learning device shown in FIG. 1. FIG. 図1に示す判定装置のハードウェア構成の一例を示す概略図である。2 is a schematic diagram showing an example of the hardware configuration of the determination device shown in FIG. 1. FIG. 学習装置のソフトウェア構成の一例を模式的に例示する図である。FIG. 2 is a diagram schematically illustrating an example of a software configuration of a learning device. ニューラルネットワークにより構成される学習モデルの一例を模式的に示す図である。FIG. 2 is a diagram schematically showing an example of a learning model configured by a neural network. 評価部による学習モデルの性能の評価方法の一例を説明する図である。FIG. 3 is a diagram illustrating an example of a method for evaluating performance of a learning model by an evaluation unit. 判定パラメータの一例を示す図である。It is a figure which shows an example of a determination parameter. 学習効果の評価方法を説明する図である。It is a figure explaining the evaluation method of a learning effect. 第1操作を受け付けるための画面の一例を示す図である。It is a figure which shows an example of the screen for receiving a 1st operation. 第2操作を受け付けるための画面の一例を示す図である。It is a figure which shows an example of the screen for receiving a 2nd operation. 記録部によって生成される履歴情報の一例を示す図である。It is a figure which shows an example of history information produced|generated by a recording part. 記録部によって生成される履歴情報の別の例を示す図である。FIG. 7 is a diagram showing another example of history information generated by the recording unit. 履歴情報を示す画面の一例を示す図である。It is a figure which shows an example of the screen which shows history information. 履歴情報を示す画面の別の例を示す図である。FIG. 7 is a diagram showing another example of a screen showing history information. 判定装置のソフトウェア構成の一例を模式的に例示する図である。FIG. 2 is a diagram schematically illustrating an example of a software configuration of a determination device. 学習装置の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of processing of a learning device. 実験例により機械学習の処理を繰り返す過程で構築された学習モデルの性能の評価結果を示す図である。FIG. 3 is a diagram showing the evaluation results of the performance of a learning model constructed in the process of repeating machine learning processing according to an experimental example.

本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the figures are given the same reference numerals and the description thereof will not be repeated.

§1 適用例
図1を参照して、本発明が適用される場面の一例について説明する。図1は、実施の形態に係るシステムの全体構成を示す概略図である。図1に例示されるシステムSYSは、製造ラインなどに組み込まれ、製品であるワークWの写る画像を利用して、ワークWの属性を判定する。ワークWの属性には、例えば、欠陥の有無、種別などが含まれる。図1に示されるように、システムSYSは、学習装置1と判定装置2とを備えている。
§1 Application Example An example of a situation where the present invention is applied will be described with reference to FIG. FIG. 1 is a schematic diagram showing the overall configuration of a system according to an embodiment. The system SYS illustrated in FIG. 1 is installed in a manufacturing line or the like, and determines the attributes of a workpiece W by using an image of the workpiece W, which is a product. The attributes of the workpiece W include, for example, the presence or absence of a defect, its type, and the like. As shown in FIG. 1, the system SYS includes a learning device 1 and a determining device 2.

学習装置1は、ワークWの写る1以上の学習用画像101を含む学習用画像グループ11を用いた機械学習を行なうことにより学習モデル5を生成するように構成されたコンピュータである。学習モデル5は、ワークWの写る画像の入力を受け、当該ワークWの属性を判定するための出力情報を出力する。 The learning device 1 is a computer configured to generate a learning model 5 by performing machine learning using a learning image group 11 including one or more learning images 101 in which a workpiece W is captured. The learning model 5 receives an input of an image of the workpiece W, and outputs output information for determining the attributes of the workpiece W.

学習装置1には、表示装置6および入力装置7が接続されている。表示装置6は、典型的には液晶ディスプレイからなり、各種画面を表示する。入力装置7は、例えばキーボードおよびマウスを含む。なお、表示装置6および入力装置7は、タッチパネルとして一体化されてもよい。 A display device 6 and an input device 7 are connected to the learning device 1 . The display device 6 is typically a liquid crystal display and displays various screens. Input device 7 includes, for example, a keyboard and a mouse. Note that the display device 6 and the input device 7 may be integrated as a touch panel.

判定装置2は、学習装置1から転送された学習モデル5を用いて、ワークWの属性を判定するように構成されたコンピュータである。判定装置2にはカメラ3が接続されている。カメラ3は、ワークWが視野に含まれるように設置される。これにより、判定装置2は、ワークWの写る観測画像をカメラ3から取得する。判定装置2は、取得した観測画像を入力したときの学習モデル5の出力情報を用いて、ワークWの属性を判定する。 The determination device 2 is a computer configured to determine the attributes of the workpiece W using the learning model 5 transferred from the learning device 1. A camera 3 is connected to the determination device 2 . The camera 3 is installed so that the workpiece W is included in its field of view. Thereby, the determination device 2 acquires an observation image in which the workpiece W is captured from the camera 3. The determination device 2 determines the attributes of the workpiece W using the output information of the learning model 5 when the acquired observation image is input.

例えば、判定装置2は、ワークWに欠陥が含まれるか否かを判定する。欠陥は、例えば、傷、汚れ、クラック、打痕、バリ、色ムラ、異物混入等であってよい。 For example, the determination device 2 determines whether the workpiece W includes a defect. The defects may be, for example, scratches, dirt, cracks, dents, burrs, color unevenness, foreign matter contamination, and the like.

図1に例示される学習装置1および判定装置2は、ネットワークを介して互いに接続されている。ネットワークの種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。 The learning device 1 and the determining device 2 illustrated in FIG. 1 are connected to each other via a network. The type of network may be appropriately selected from, for example, the Internet, a wireless communication network, a mobile communication network, a telephone network, a dedicated network, and the like.

学習装置1および判定装置2の間でデータをやりとりする方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、学習装置1および判定装置2の間では、記憶媒体を利用して、データがやりとりされてよい。また、本実施形態では、学習装置1および判定装置2は互いに別個のコンピュータである。しかしながら、システムSYSの構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、学習装置1および判定装置2は一体のコンピュータであってもよい。また、例えば、学習装置1および判定装置2の少なくとも一方は、複数台のコンピュータにより構成されてよい。 The method of exchanging data between the learning device 1 and the determination device 2 does not need to be limited to this example, and may be selected as appropriate depending on the embodiment. For example, data may be exchanged between the learning device 1 and the determining device 2 using a storage medium. Furthermore, in this embodiment, the learning device 1 and the determining device 2 are separate computers. However, the configuration of the system SYS does not need to be limited to such an example, and may be determined as appropriate depending on the embodiment. For example, the learning device 1 and the determining device 2 may be an integrated computer. Further, for example, at least one of the learning device 1 and the determining device 2 may be configured by a plurality of computers.

図1に示されるように、学習装置1は、学習部13を備える。学習部13は、学習用画像グループ11を用いた機械学習を行なうことにより、ワークWの属性を判定するために利用される学習モデル5を生成する。学習用画像グループ11は、良品のワークWの写る1以上の学習用画像101を含む。 As shown in FIG. 1, the learning device 1 includes a learning section 13. The learning unit 13 generates a learning model 5 used to determine the attributes of the workpiece W by performing machine learning using the learning image group 11. The learning image group 11 includes one or more learning images 101 in which a good workpiece W is captured.

システムSYSの立ち上げ段階では、学習用画像グループ11は、予め準備された1以上の学習用画像101のみを含む。通常、予め準備される学習用画像101の数が不十分であり、立ち上げ段階における学習モデル5の性能は十分ではない。そのため、追加学習に関する操作が繰り返し行なわれ、学習モデル5の性能向上が図られる。ただし、上述したように、追加学習に関する操作を増やしても、必ずしも学習モデル5の性能が向上するわけではない。そのため、ユーザは、過去に実施された複数の操作それぞれに対応する学習モデル5のうち、どのタイミングの学習モデル5の性能が最も高いか容易に把握できない。その結果、学習モデル5の調整に手間がかかるという問題が生じる。 At the start-up stage of the system SYS, the learning image group 11 includes only one or more learning images 101 prepared in advance. Usually, the number of learning images 101 prepared in advance is insufficient, and the performance of the learning model 5 at the start-up stage is not sufficient. Therefore, operations related to additional learning are repeatedly performed, and the performance of the learning model 5 is improved. However, as described above, increasing the number of operations related to additional learning does not necessarily improve the performance of the learning model 5. Therefore, the user cannot easily grasp at which timing the performance of the learning model 5 is highest among the learning models 5 corresponding to each of a plurality of operations performed in the past. As a result, a problem arises in that it takes time and effort to adjust the learning model 5.

本実施の形態に係るシステムSYSの学習装置1は、このような問題を解決するために、評価部14と、受付部15と、記録部16と、出力部17とをさらに備える。 The learning device 1 of the system SYS according to the present embodiment further includes an evaluation section 14, a reception section 15, a recording section 16, and an output section 17 in order to solve such problems.

評価部14は、評価用画像グループ12に含まれる1以上の評価用画像102を学習モデル5に入力することにより、学習モデル5の性能の評価を行なう。各評価用画像102には、良品または不良品のワークWが写る。評価部14は、学習部13が学習モデル5を生成するたびに、生成された学習モデル5の性能を評価する。 The evaluation unit 14 evaluates the performance of the learning model 5 by inputting one or more evaluation images 102 included in the evaluation image group 12 to the learning model 5. Each evaluation image 102 shows a workpiece W that is a good product or a defective product. The evaluation unit 14 evaluates the performance of the generated learning model 5 every time the learning unit 13 generates the learning model 5.

受付部15は、学習用画像グループ11を更新する第1操作を受け付ける。第1操作は、例えば、判定装置2がカメラ3から取得した観測画像を学習用画像101として学習用画像グループ11に追加する操作である。受付部15は、第1操作に応じて、学習用画像グループ11を更新する。 The reception unit 15 receives a first operation for updating the learning image group 11. The first operation is, for example, an operation in which the determination device 2 adds the observed image acquired from the camera 3 to the learning image group 11 as the learning image 101. The reception unit 15 updates the learning image group 11 in response to the first operation.

受付部15によって学習用画像グループ11が更新されると、学習部13は、更新後の学習用画像グループ11を用いて学習モデル5を生成する。さらに、評価部14は、生成された学習モデル5の性能を評価する。 When the learning image group 11 is updated by the reception unit 15, the learning unit 13 generates the learning model 5 using the updated learning image group 11. Furthermore, the evaluation unit 14 evaluates the performance of the generated learning model 5.

記録部16は、第1操作ごとに、第1操作の内容と、更新後の学習用画像グループ11を用いて生成された学習モデル5に対する評価の結果とを対応づけて記録する。 For each first operation, the recording unit 16 records the content of the first operation in association with the evaluation result for the learning model 5 generated using the updated learning image group 11.

出力部17は、記録部16によって記録された履歴情報を出力する。例えば、出力部17は、履歴情報を表示装置6に表示する。 The output unit 17 outputs the history information recorded by the recording unit 16. For example, the output unit 17 displays history information on the display device 6.

ユーザは、記録部16によって記録された履歴情報を確認することにより、過去に実施された複数の第1操作それぞれに対応する学習モデル5のうち、どのタイミングの学習モデル5の性能が最も高いか容易に把握できる。これにより、ユーザは、第1操作ごとの学習モデル5の性能を確認しながら、学習モデル5を適宜調整すればよい。典型的には、ユーザは、性能の最も高い学習モデル5を判定装置2に設定する。このように、本実施の形態によれば、学習モデル5の調整の手間を削減できる。 By checking the history information recorded by the recording unit 16, the user can determine at which timing the performance of the learning model 5 is highest among the learning models 5 corresponding to each of the plurality of first operations performed in the past. Easy to understand. Thereby, the user can adjust the learning model 5 as appropriate while checking the performance of the learning model 5 for each first operation. Typically, the user sets the learning model 5 with the highest performance in the determination device 2. In this way, according to the present embodiment, the effort required to adjust the learning model 5 can be reduced.

§2 具体例
<A.学習装置のハードウェア構成例>
学習装置1は、典型的には、汎用的なアーキテクチャを有しているコンピュータであり、予めインストールされたプログラム(命令コード)を実行することで、本実施の形態に係る各種処理を実行する。このようなプログラムは、典型的には、各種記録媒体などに格納された状態で流通し、あるいは、ネットワークなどを介して学習装置1にインストールされる。
§2 Specific example <A. Example of hardware configuration of learning device>
The learning device 1 is typically a computer having a general-purpose architecture, and executes various processes according to the present embodiment by executing programs (instruction codes) installed in advance. Such programs are typically distributed in a state stored in various recording media or installed in the learning device 1 via a network or the like.

このような汎用的なコンピュータを利用する場合には、本実施の形態に係る各種処理を実行するためのアプリケーションに加えて、コンピュータの基本的な処理を実行するためのOS(Operating System)がインストールされていてもよい。この場合には、本実施の形態に係るプログラムは、OSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。すなわち、本実施の形態に係るプログラム自体は、上記のようなモジュールを含んでおらず、OSと協働して処理が実行されてもよい。本実施の形態に係るプログラムとしては、このような一部のモジュールを含まない形態であってもよい。 When using such a general-purpose computer, in addition to applications for executing various processes related to this embodiment, an OS (Operating System) for executing basic computer processes must be installed. may have been done. In this case, the program according to the present embodiment may call necessary modules at a predetermined timing in a predetermined sequence among the program modules provided as part of the OS to execute processing. good. That is, the program itself according to this embodiment does not include the above-mentioned modules, and the processing may be executed in cooperation with the OS. The program according to this embodiment may be in a form that does not include some of these modules.

さらに、本実施の形態に係るプログラムは、他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には、上記のような組合せられる他のプログラムに含まれるモジュールを含んでおらず、当該他のプログラムと協働して処理が実行される。すなわち、本実施の形態に係るプログラムとしては、このような他のプログラムに組込まれた形態であってもよい。なお、プログラムの実行により提供される機能の一部もしくは全部を専用のハードウェア回路として実装してもよい。 Furthermore, the program according to this embodiment may be provided by being incorporated into a part of another program. Even in that case, the program itself does not include modules included in other programs to be combined as described above, and processing is executed in cooperation with the other programs. That is, the program according to this embodiment may be incorporated into such another program. Note that part or all of the functions provided by executing the program may be implemented as a dedicated hardware circuit.

図2は、図1に示す学習装置のハードウェア構成の一例を示す概略図である。図2に示されるように、学習装置1は、CPU(Central Processing Unit)110と、RAM(Random Access Memory)111と、ROM(Read Only Memory)112と、通信インターフェース113と、入力インターフェース114と、表示コントローラ115と、ドライブ116と、記憶部120とを含む。これらの各部は、バスを介して、互いにデータ通信可能に接続される。 FIG. 2 is a schematic diagram showing an example of the hardware configuration of the learning device shown in FIG. As shown in FIG. 2, the learning device 1 includes a CPU (Central Processing Unit) 110, a RAM (Random Access Memory) 111, a ROM (Read Only Memory) 112, a communication interface 113, an input interface 114, It includes a display controller 115, a drive 116, and a storage unit 120. These units are connected to each other via a bus so that they can communicate data.

CPU110は、記憶部120にインストールされたプログラム(コード)をRAM111に展開して、これらを所定順序で実行することで、各種の演算を実施する。RAM111は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置である。 The CPU 110 implements various calculations by loading programs (codes) installed in the storage unit 120 into the RAM 111 and executing them in a predetermined order. RAM 111 is typically a volatile storage device such as DRAM (Dynamic Random Access Memory).

通信インターフェース113は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインターフェースである。学習装置1は、この通信インターフェース113を利用することで、他の情報処理装置(例えば、判定装置2)とデータ通信を行なうことができる。 The communication interface 113 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. By using this communication interface 113, the learning device 1 can perform data communication with another information processing device (for example, the determination device 2).

入力インターフェース114は、CPU110と入力装置7との間のデータ伝送を仲介する。すなわち、入力インターフェース114は、ユーザが入力装置7に入力した入力情報を受け付ける。 Input interface 114 mediates data transmission between CPU 110 and input device 7 . That is, the input interface 114 receives input information input by the user into the input device 7.

表示コントローラ115は、表示装置6と接続され、CPU110における処理結果などをユーザに通知するように表示装置6の画面を制御する。 The display controller 115 is connected to the display device 6 and controls the screen of the display device 6 so as to notify the user of processing results in the CPU 110 and the like.

記憶部120は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部120は、学習プログラム122および評価プログラム124を記憶する。学習プログラム122は、学習モデル5を生成するための機械学習の処理を学習装置1に実行させるためのプログラムである。評価プログラム124は、学習モデル5の性能の評価および評価結果の記録を学習装置1に実行させるためのプログラムである。学習プログラム122および評価プログラム124の各々は、情報処理の一連の命令を含む。 The storage unit 120 includes, for example, a hard disk drive, a solid state drive, or the like. The storage unit 120 stores a learning program 122 and an evaluation program 124. The learning program 122 is a program for causing the learning device 1 to execute machine learning processing for generating the learning model 5. The evaluation program 124 is a program for causing the learning device 1 to evaluate the performance of the learning model 5 and record the evaluation results. Each of the learning program 122 and the evaluation program 124 includes a series of information processing instructions.

記憶部120は、1以上の学習用画像101と、1以上の評価用画像102とを記憶する。図2に例示される記憶部120は、複数の学習用画像101と、複数の評価用画像102とを記憶する。学習用画像101は、学習モデル5を生成する機械学習に使用される。評価用画像102は、学習モデル5の性能の評価に使用される。 The storage unit 120 stores one or more learning images 101 and one or more evaluation images 102. The storage unit 120 illustrated in FIG. 2 stores a plurality of learning images 101 and a plurality of evaluation images 102. The learning image 101 is used for machine learning to generate the learning model 5. The evaluation image 102 is used to evaluate the performance of the learning model 5.

記憶部120には、学習プログラム122の実行によって生成された学習モデルを定義付けるモデルデータ123が保存される。さらに、記憶部120には、評価プログラム124の実行によって生成された評価結果の履歴を示す履歴情報125が保存される。 The storage unit 120 stores model data 123 that defines a learning model generated by executing the learning program 122. Further, the storage unit 120 stores history information 125 indicating the history of evaluation results generated by executing the evaluation program 124.

ドライブ116は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体130に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ116の種類は、記憶媒体130の種類に応じて適宜選択されてよい。学習プログラム122および評価プログラム124の少なくとも1つは、この記憶媒体130に記憶されていてもよい。 The drive 116 is, for example, a CD drive, a DVD drive, etc., and is a drive device for reading a program stored in the storage medium 130. The type of drive 116 may be selected as appropriate depending on the type of storage medium 130. At least one of the learning program 122 and the evaluation program 124 may be stored in this storage medium 130.

記憶媒体130は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置1は、この記憶媒体130から、学習プログラム122および評価プログラム124の少なくとも1つを取得してもよい。 The storage medium 130 stores information such as a recorded program by electrical, magnetic, optical, mechanical, or chemical action so that a computer, other device, machine, etc. can read the recorded program information. It is a medium for The learning device 1 may acquire at least one of the learning program 122 and the evaluation program 124 from this storage medium 130.

ここで、図2では、記憶媒体130の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体130の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。 Here, in FIG. 2, a disk-type storage medium such as a CD or a DVD is illustrated as an example of the storage medium 130. However, the type of storage medium 130 is not limited to the disk type, and may be other than the disk type. An example of a storage medium other than a disk type is a semiconductor memory such as a flash memory.

なお、学習装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、学習装置1は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)、DSP(digital signal processor)等で構成されてよい。通信インターフェース113及びドライブ116の少なくとも一方は省略されてもよい。学習装置1は、例えば、スピーカ等の表示装置6以外の出力装置に接続され、出力装置を制御するコントローラを備えてもよい。学習装置1は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、学習装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC(Personal Computer)等であってもよい。 Note that regarding the specific hardware configuration of the learning device 1, components may be omitted, replaced, or added as appropriate depending on the embodiment. For example, the learning device 1 may include multiple hardware processors. The hardware processor may be configured with a microprocessor, FPGA (field-programmable gate array), DSP (digital signal processor), or the like. At least one of the communication interface 113 and the drive 116 may be omitted. The learning device 1 may include, for example, a controller that is connected to an output device such as a speaker other than the display device 6 and controls the output device. The learning device 1 may be composed of multiple computers. In this case, the hardware configurations of the computers may or may not match. Further, the learning device 1 may be an information processing device designed exclusively for the provided service, or may be a general-purpose server device, a general-purpose PC (Personal Computer), or the like.

<B.判定装置のハードウェア構成例>
次に、図3を用いて、本実施形態に係る判定装置2のハードウェア構成の一例について説明する。図3は、図1に示す判定装置のハードウェア構成の一例を示す概略図である。
<B. Hardware configuration example of determination device>
Next, an example of the hardware configuration of the determination device 2 according to this embodiment will be described using FIG. 3. FIG. 3 is a schematic diagram showing an example of the hardware configuration of the determination device shown in FIG.

図3に示されるとおり、判定装置2は、CPU210と、RAM211と、ROM212と、通信インターフェース213と、外部インターフェース214と、入力インターフェース215と、表示コントローラ216と、ドライブ217と、記憶部220とを含む。これらの各部は、バスを介して互いにデータ通信可能に接続される。 As shown in FIG. 3, the determination device 2 includes a CPU 210, a RAM 211, a ROM 212, a communication interface 213, an external interface 214, an input interface 215, a display controller 216, a drive 217, and a storage unit 220. include. These units are connected to each other via a bus so that they can communicate data.

CPU210は、記憶部220にインストールされたプログラム(コード)をRAM211に展開して、これらを所定順序で実行することで、各種の演算を実施する。RAM211は、典型的には、DRAMなどの揮発性の記憶装置である。 The CPU 210 implements various calculations by expanding programs (codes) installed in the storage unit 220 into the RAM 211 and executing them in a predetermined order. RAM 211 is typically a volatile storage device such as DRAM.

通信インターフェース213は、例えば、有線LANモジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインターフェースである。判定装置2は、通信インターフェース213を利用することで、他の情報処理装置(例えば、学習装置1)とデータ通信を行なうことができる。 The communication interface 213 is, for example, a wired LAN module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. The determination device 2 can perform data communication with another information processing device (for example, the learning device 1) by using the communication interface 213.

外部インターフェース214は、例えば、USB(Universal Serial Bus)ポート、専用ポート等であり、外部装置と接続するためのインターフェースである。外部インターフェース214の種類及び数は、接続される外部装置の種類及び数に応じて適宜選択されてよい。本実施形態では、判定装置2は、外部インターフェース214を介して、カメラ3に接続される。 The external interface 214 is, for example, a USB (Universal Serial Bus) port, a dedicated port, or the like, and is an interface for connecting to an external device. The type and number of external interfaces 214 may be selected as appropriate depending on the type and number of external devices to be connected. In this embodiment, the determination device 2 is connected to the camera 3 via an external interface 214.

カメラ3は、外観検査の対象となるワークWを写した観測画像201を取得するのに利用される。カメラ3の種類及び配置場所は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。カメラ3には、例えば、一般的なデジタルカメラ、深度カメラ、赤外線カメラ等が用いられてよい。また、カメラ3は、製造ラインにより搬送されるワークWを観測可能なように適宜配置されてよい。カメラ3は、例えば、ワークWを搬送する製造ラインの近傍に配置されてよい。なお、カメラ3が通信インターフェースを備える場合、判定装置2は、外部インターフェース214ではなく、通信インターフェース213を介して、カメラ3に接続されてもよい。 The camera 3 is used to obtain an observation image 201 of the workpiece W to be inspected. The type and location of the camera 3 are not particularly limited and may be determined as appropriate depending on the embodiment. The camera 3 may be, for example, a general digital camera, a depth camera, an infrared camera, or the like. Further, the camera 3 may be appropriately placed so as to be able to observe the workpiece W being conveyed through the production line. The camera 3 may be placed, for example, near a production line that transports the work W. Note that when the camera 3 includes a communication interface, the determination device 2 may be connected to the camera 3 via the communication interface 213 instead of the external interface 214.

入力インターフェース215は、CPU210と入力装置8との間のデータ伝送を仲介する。すなわち、入力インターフェース215は、ユーザが入力装置8に入力した入力情報を受け付ける。 Input interface 215 mediates data transmission between CPU 210 and input device 8. That is, the input interface 215 receives input information input by the user into the input device 8.

表示コントローラ216は、表示装置9と接続され、CPU210における処理結果などをユーザに通知するように表示装置9の画面を制御する。 The display controller 216 is connected to the display device 9 and controls the screen of the display device 9 so as to notify the user of processing results in the CPU 210 and the like.

入力装置8は、例えば、マウス、キーボード等の入力を行うための装置である。表示装置9は、出力装置の一例であり、例えば、ディスプレイである。オペレータは、入力装置8及び表示装置9を介して、判定装置2を操作することができる。入力装置8及び表示装置9はタッチパネルディスプレイに置き換えられてもよい。 The input device 8 is, for example, a device for performing input such as a mouse or a keyboard. The display device 9 is an example of an output device, and is, for example, a display. An operator can operate the determination device 2 via the input device 8 and the display device 9. The input device 8 and the display device 9 may be replaced with touch panel displays.

記憶部220は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部220は、判定プログラム221、モデルデータ123等の各種情報を記憶する。 The storage unit 220 is configured with, for example, a hard disk drive, a solid state drive, or the like. The storage unit 220 stores various information such as a determination program 221 and model data 123.

判定プログラム221は、学習装置1により訓練された学習モデル5を利用して、観測画像201に写るワークWの属性を判定する情報処理を判定装置2に実行させるためのプログラムである。本実施の形態では、ワークWの属性を判定する情報処理は、ワークWの良否を判定する情報処理である。判定プログラム221は、当該情報処理の一連の命令を含む。 The determination program 221 is a program for causing the determination device 2 to perform information processing for determining the attributes of the work W reflected in the observation image 201 using the learning model 5 trained by the learning device 1. In the present embodiment, the information processing for determining the attributes of the workpiece W is information processing for determining the quality of the workpiece W. The determination program 221 includes a series of instructions for the information processing.

ドライブ217は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体230に記憶されたプログラムを読み込むためのドライブ装置である。判定プログラム221およびモデルデータ123のうちの少なくともいずれかは、記憶媒体230に記憶されていてもよい。また、判定装置2は、記憶媒体230から、判定プログラム221およびモデルデータ123のうちの少なくともいずれかを取得してもよい。記憶媒体230の種類は、ディスク型であってもよいし、ディスク型以外であってもよい。 The drive 217 is, for example, a CD drive, a DVD drive, or the like, and is a drive device for reading a program stored in the storage medium 230. At least one of the determination program 221 and the model data 123 may be stored in the storage medium 230. Further, the determination device 2 may acquire at least one of the determination program 221 and the model data 123 from the storage medium 230. The type of storage medium 230 may be a disk type or a type other than a disk type.

なお、判定装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、判定装置2は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、DSP等で構成されてよい。記憶部220は、RAM211およびROM212により構成されてもよい。通信インターフェース213、入力インターフェース215、表示コントローラ216、ドライブ217および外部インターフェース214の少なくともいずれかは省略されてもよい。判定装置2は、例えば、スピーカ等の表示装置9以外の出力装置を備えてもよい。判定装置2は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、判定装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC等であってもよい。 Note that regarding the specific hardware configuration of the determination device 2, components may be omitted, replaced, or added as appropriate depending on the embodiment. For example, the determination device 2 may include multiple hardware processors. The hardware processor may be comprised of a microprocessor, FPGA, DSP, etc. The storage unit 220 may include a RAM 211 and a ROM 212. At least one of the communication interface 213, input interface 215, display controller 216, drive 217, and external interface 214 may be omitted. The determination device 2 may include an output device other than the display device 9, such as a speaker. The determination device 2 may be composed of multiple computers. In this case, the hardware configurations of the computers may or may not match. Further, the determination device 2 may be an information processing device designed exclusively for the provided service, or may be a general-purpose server device, a general-purpose PC, or the like.

<C.学習装置のソフトウェア構成例>
次に、図4を用いて、本実施形態に係る学習装置1のソフトウェア構成の一例について説明する。図4は、学習装置のソフトウェア構成の一例を模式的に例示する図である。
<C. Example of software configuration of learning device>
Next, an example of the software configuration of the learning device 1 according to this embodiment will be described using FIG. 4. FIG. 4 is a diagram schematically illustrating an example of the software configuration of the learning device.

図4に示されるように、学習装置1は、学習部13と、評価部14と、受付部15と、記録部16と、出力部17と、設定部18とをソフトウェアモジュールとして備える。学習部13は、CPU110が学習プログラム122に含まれる命令を解釈および実行することにより実現される。評価部14、受付部15、記録部16、出力部17および設定部18は、CPU110が評価プログラム124に含まれる命令を解釈および実行することにより実現される。以下、各ソフトウェアモジュールの具体的な処理について説明する。 As shown in FIG. 4, the learning device 1 includes a learning section 13, an evaluation section 14, a reception section 15, a recording section 16, an output section 17, and a setting section 18 as software modules. The learning unit 13 is realized by the CPU 110 interpreting and executing instructions included in the learning program 122. The evaluation section 14, reception section 15, recording section 16, output section 17, and setting section 18 are realized by the CPU 110 interpreting and executing instructions included in the evaluation program 124. The specific processing of each software module will be described below.

(C-1.学習部)
学習部13は、学習用画像グループ11に含まれる1つ以上の学習用画像101を用いた機械学習を行なうことにより学習モデル5を生成する。各学習用画像101には良品のワークWが写る。本実施の形態において例示される学習モデル5は、画像が入力されると、入力された画像(以下、「入力画像」と称する。)を特徴量に変換し、変換により得られた特徴量から、入力画像を復元した画像(以下、「復元画像」と称する。)を生成するように構成される生成モデルである。学習部13は、機械学習により、1つ以上の学習用画像101が入力されると、入力された1つ以上の学習用画像101の各々に適合する復元画像を生成するように学習モデル5を訓練する。
(C-1. Learning Department)
The learning unit 13 generates the learning model 5 by performing machine learning using one or more learning images 101 included in the learning image group 11. Each learning image 101 shows a good workpiece W. When an image is input, the learning model 5 exemplified in this embodiment converts the input image (hereinafter referred to as "input image") into a feature amount, and uses the feature amount obtained by the conversion. , is a generation model configured to generate an image obtained by restoring an input image (hereinafter referred to as a "restored image"). By machine learning, when one or more learning images 101 are input, the learning unit 13 causes the learning model 5 to generate a restored image that matches each of the input one or more learning images 101. train.

具体的には、学習モデル5は、入力画像を特徴量に変換し、変換により得られた特徴量から復元画像を生成する演算処理に使用される演算パラメータを備えるモジュールにより構成される。機械学習では、学習用画像101が与えられると、学習用画像101に適合する復元画像を生成するように、演算パラメータの値が調整される。 Specifically, the learning model 5 is constituted by a module including calculation parameters used for calculation processing to convert an input image into a feature amount and generate a restored image from the feature amount obtained by the conversion. In machine learning, when a learning image 101 is given, the values of calculation parameters are adjusted so as to generate a restored image that matches the learning image 101.

学習部13は、予め設定されたパラメータ(以下、「モデル生成用パラメータ」と称する。)を用いて学習モデル5を生成する。モデル生成用パラメータは、学習モデル5の構造に応じて適宜設定される。 The learning unit 13 generates the learning model 5 using preset parameters (hereinafter referred to as "model generation parameters"). The model generation parameters are appropriately set according to the structure of the learning model 5.

学習モデル5の構成は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、学習モデル5は、ニューラルネットワーク、主成分分析により導出される固有ベクトル等によって構成される。ニューラルネットワークとして、例えば、非特許文献1に開示されるオートエンコーダ、非特許文献2に開示されるGAN(Generative Adversarial Networks)等が挙げられる。固有ベクトルとして、例えば、非特許文献3に開示される部分空間の固有ベクトル等が挙げられる。 The configuration of the learning model 5 does not need to be particularly limited, and may be appropriately selected depending on the embodiment. For example, the learning model 5 is configured by a neural network, eigenvectors derived by principal component analysis, and the like. Examples of neural networks include the autoencoder disclosed in Non-Patent Document 1, GAN (Generative Adversarial Networks) disclosed in Non-Patent Document 2, and the like. Examples of the eigenvector include the eigenvector of a subspace disclosed in Non-Patent Document 3.

図5は、ニューラルネットワークにより構成される学習モデルの一例を模式的に示す図である。ニューラルネットワークの代表例としてオートエンコーダが挙げられる。オートエンコーダは、次元圧縮を目的としたニューラルネットワークである。図5には、オートエンコーダにより構成される学習モデル5が示される。 FIG. 5 is a diagram schematically showing an example of a learning model configured by a neural network. An autoencoder is a typical example of a neural network. An autoencoder is a neural network intended for dimensionality reduction. FIG. 5 shows a learning model 5 composed of an autoencoder.

図5に例示される学習モデル5を構成するニューラルネットワークは、入力層51、中間(隠れ)層52、出力層53を備えている。ただし、ニューラルネットワークの構造は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、中間層の数は、1つに限定されなくてもよく、2つ以上であってもよい。 The neural network configuring the learning model 5 illustrated in FIG. 5 includes an input layer 51, an intermediate (hidden) layer 52, and an output layer 53. However, the structure of the neural network does not need to be limited to such an example, and may be determined as appropriate depending on the embodiment. For example, the number of intermediate layers is not limited to one, and may be two or more.

入力層51に含まれるニューロン(ノード)の数は、入力画像の画素数に対応する。中間層52に含まれるニューロンの数は、特徴量の次元数に対応する。出力層53に含まれるニューロンの数は、復元画像の画素数に対応する。中間層52に含まれるニューロンの数は、入力層51及び出力層53それぞれに含まれるニューロンの数よりも少なく設定される。これに応じて、特徴量の次元数が、入力画像及び復元画像の次元数よりも小さく設定される。 The number of neurons (nodes) included in the input layer 51 corresponds to the number of pixels of the input image. The number of neurons included in the intermediate layer 52 corresponds to the number of dimensions of the feature amount. The number of neurons included in the output layer 53 corresponds to the number of pixels of the restored image. The number of neurons included in the intermediate layer 52 is set to be smaller than the number of neurons included in each of the input layer 51 and the output layer 53. Accordingly, the number of dimensions of the feature amount is set smaller than the number of dimensions of the input image and restored image.

ニューラルネットワークでは、隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定される。図5に例示される学習モデル5では、各ニューロンは、隣接する層の全てのニューロンと結合されている。しかしながら、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。各層51~53に含まれる各ニューロン間の結合の重み及び各ニューロンの閾値は、学習モデルの演算パラメータの一例である。 In a neural network, neurons in adjacent layers are appropriately connected, and a weight (connection weight) is set for each connection. In the learning model 5 illustrated in FIG. 5, each neuron is connected to all neurons in adjacent layers. However, the connection of neurons does not need to be limited to this example, and may be set as appropriate depending on the embodiment. A threshold value is set for each neuron, and basically, the output of each neuron is determined depending on whether the sum of the products of each input and each weight exceeds the threshold value. The weight of the connection between each neuron included in each layer 51 to 53 and the threshold value of each neuron are examples of calculation parameters of the learning model.

学習部13は、学習モデル5を構成するニューラルネットワークを用意する。ニューラルネットワークによって構成される学習モデル5を生成する場合、モデル作成パラメータとして、層の数、各層に含まれるニューロンの数、隣接する層のニューロン同士の結合関係、各ニューロン間の結合の重みの初期値、各ニューロンの閾値の初期値などが設定される。モデル作成パラメータは、テンプレートにより与えられてもよいし、ユーザの入力により与えられてもよい。 The learning unit 13 prepares a neural network that constitutes the learning model 5. When generating the learning model 5 composed of a neural network, the model creation parameters include the number of layers, the number of neurons included in each layer, the connection relationship between neurons in adjacent layers, and the initial weight of the connection between each neuron. value, the initial value of the threshold value of each neuron, etc. are set. Model creation parameters may be provided by a template or may be provided by user input.

学習部13は、各学習用画像101を用いて、各ニューラルネットワークの学習処理を実行する。この学習処理には、バッチ勾配降下法、確率的勾配降下法、ミニバッチ勾配降下法等が用いられてよい。例えば、第1のステップでは、学習部13は、各ニューラルネットワークの入力層51に各学習用画像101を入力し、各ニューラルネットワークの演算処理を実行する。すなわち、学習部13は、各ニューラルネットワークの入力層51に各学習用画像101を入力し、入力側から順に各層51~53に含まれる各ニューロンの発火判定を行う。この演算処理により、学習部13は、各学習用画像101を特徴量に変換し、変換により得られた特徴量から各学習用画像101を復元した画像を生成した結果に対応する出力値を出力層53から取得する。この演算処理の過程で、中間層52から得られる出力は、入力画像を特徴量に変換した結果に対応する。 The learning unit 13 uses each learning image 101 to execute a learning process for each neural network. This learning process may use a batch gradient descent method, a stochastic gradient descent method, a mini-batch gradient descent method, or the like. For example, in the first step, the learning unit 13 inputs each learning image 101 to the input layer 51 of each neural network, and executes arithmetic processing of each neural network. That is, the learning unit 13 inputs each learning image 101 to the input layer 51 of each neural network, and determines the firing of each neuron included in each layer 51 to 53 in order from the input side. Through this calculation process, the learning unit 13 converts each learning image 101 into a feature amount, and outputs an output value corresponding to the result of generating an image in which each learning image 101 is restored from the feature amount obtained by the conversion. Obtained from layer 53. In the process of this calculation process, the output obtained from the intermediate layer 52 corresponds to the result of converting the input image into a feature amount.

第2のステップでは、学習部13は、出力層53から得られた出力値と各学習用画像101との誤差を損失関数に基づいて算出する。損失関数の種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。損失関数には、公知のものが採用されてよい。 In the second step, the learning unit 13 calculates the error between the output value obtained from the output layer 53 and each learning image 101 based on the loss function. The type of loss function does not need to be particularly limited, and may be selected as appropriate depending on the embodiment. A known loss function may be used as the loss function.

第3のステップでは、学習部13は、誤差逆伝播(Back propagation)法により、算出された出力値の誤差を用いて、各ニューラルネットワークの演算パラメータ、すなわち、各層51~53における各ニューロン間の結合の重みおよび各ニューロンの閾値それぞれの誤差を算出する。 In the third step, the learning unit 13 uses the error of the calculated output value by the error back propagation method to determine the calculation parameters of each neural network, that is, between each neuron in each layer 51 to 53. Calculate the connection weight and the error of each neuron's threshold.

第4のステップでは、学習部13は、算出された各誤差に基づいて、各層51~53における各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値を更新する。 In the fourth step, the learning unit 13 updates the weight of the connection between each neuron in each layer 51 to 53 and the threshold value of each neuron based on each calculated error.

学習部13は、上記の第1~第4のステップを繰り返すことで、出力層53から出力される出力値(復元画像)と各学習用画像101との誤差の和が小さくなるように、演算パラメータの値を調整する。例えば、学習部13は、出力層53から出力される出力値と各学習用画像101との誤差の和が閾値以下になるまで、上記の第1~第4のステップによる演算パラメータの調整を繰り返してもよい。閾値は、実施の形態に応じて適宜設定されてよい。 By repeating the first to fourth steps described above, the learning unit 13 performs calculations so that the sum of errors between the output value (restored image) output from the output layer 53 and each learning image 101 becomes small. Adjust parameter values. For example, the learning unit 13 repeats the adjustment of the calculation parameters in the first to fourth steps described above until the sum of the errors between the output value output from the output layer 53 and each learning image 101 becomes equal to or less than the threshold value. It's okay. The threshold value may be set as appropriate depending on the embodiment.

これにより、学習部13は、各学習用画像101を入力層51に入力すると、各学習用画像101に適合する復元画像を出力層53から出力するように訓練されたニューラルネットワークを学習モデル5として構築できる。ニューラルネットワークにおいて、入力された各学習用画像101は、入力層51から中間層52までの演算の過程で特徴量に変換される。そして、中間層52から出力層53までの演算の過程により、得られた特徴量から復元画像が生成される。 As a result, the learning unit 13 uses, as the learning model 5, a neural network that is trained to output a restored image matching each learning image 101 from the output layer 53 when each learning image 101 is input to the input layer 51. Can be built. In the neural network, each input learning image 101 is converted into a feature amount during the calculation process from the input layer 51 to the intermediate layer 52. Then, a restored image is generated from the obtained feature amounts through the calculation process from the intermediate layer 52 to the output layer 53.

各学習用画像101には良品のワークWが写る。そのため、学習モデル5は、学習用画像101に写る特徴については再現性が高く、学習用画像101に写る可能性の低い(例えば、可能性のない)欠陥については再現性の低い復元画像を生成する能力を獲得している。 Each learning image 101 shows a good workpiece W. Therefore, the learning model 5 generates a restored image that has high reproducibility for the features that appear in the training image 101 and has low reproducibility for defects that are unlikely (for example, have no possibility) to appear in the training image 101. have acquired the ability to

学習部13は、最終的に構築された学習済みのニューラルネットワーク(学習モデル5)における演算パラメータの値を再現可能な情報をモデルデータ123として生成し、記憶部120に保存する。学習部13は、モデルデータ123を判定装置2に転送する。判定装置2は、この転送を受け付けることで、モデルデータ123を取得する。あるいは、判定装置2は、通信インターフェース213を利用して、学習装置1又はデータサーバにネットワークを介してアクセスすることで、モデルデータ123を取得してもよい。また、例えば、判定装置2は、記憶媒体230を介して、モデルデータ123を取得してもよい。 The learning unit 13 generates information that can reproduce the values of calculation parameters in the finally constructed trained neural network (learning model 5) as model data 123, and stores it in the storage unit 120. The learning unit 13 transfers the model data 123 to the determination device 2. The determination device 2 acquires the model data 123 by accepting this transfer. Alternatively, the determination device 2 may obtain the model data 123 by accessing the learning device 1 or the data server via the network using the communication interface 213. Further, for example, the determination device 2 may acquire the model data 123 via the storage medium 230.

なお、学習モデル5を構成するニューラルネットワークの種類は、このような多層構造の全結合型ニューラルネットワークに限定されなくてもよい。学習モデル5には、畳み込み層及びプーリング層を備える畳み込みニューラルネットワークが用いられてもよい。 Note that the type of neural network constituting the learning model 5 is not limited to such a fully connected neural network with a multilayer structure. The learning model 5 may use a convolutional neural network including a convolution layer and a pooling layer.

(C-2.評価部)
評価部14は、評価用画像グループ12に含まれる1以上の評価用画像102を学習モデル5に入力することにより、学習モデル5の性能の評価を行なう。以下、図6および図7を参照して、評価部14の具体的な処理の例について説明する。
(C-2. Evaluation Department)
The evaluation unit 14 evaluates the performance of the learning model 5 by inputting one or more evaluation images 102 included in the evaluation image group 12 to the learning model 5. Hereinafter, a specific example of processing by the evaluation unit 14 will be described with reference to FIGS. 6 and 7.

図6は、評価部による学習モデルの性能の評価方法の一例を説明する図である。評価用画像グループ12は、1以上の第1評価用画像103と1以上の第2評価用画像104とを含む。図6に例示される評価用画像グループ12は、複数の第1評価用画像103と、複数の第2評価用画像104とを含む。各第1評価用画像103には、良品であるワークWが写る。各第2評価用画像104には、不良品であるワークWが写る。例えば、第2評価用画像104には、欠陥Lを含むワークWが写る。 FIG. 6 is a diagram illustrating an example of a method for evaluating the performance of a learning model by the evaluation unit. The evaluation image group 12 includes one or more first evaluation images 103 and one or more second evaluation images 104. The evaluation image group 12 illustrated in FIG. 6 includes a plurality of first evaluation images 103 and a plurality of second evaluation images 104. Each first evaluation image 103 shows a workpiece W that is a non-defective product. Each second evaluation image 104 shows a workpiece W that is a defective product. For example, the second evaluation image 104 shows a workpiece W including a defect L.

評価部14は、複数の第1評価用画像103を学習モデル5に入力することにより、複数の第1評価用画像103をそれぞれ復元した複数の第1復元画像105を取得する。第1復元画像105は、学習モデル5の出力情報である。評価部14は、各第1復元画像105が判定条件を満たすか否かに応じて、対応する第1評価用画像103に写るワークWの良否を判定する。 The evaluation unit 14 inputs the plurality of first evaluation images 103 into the learning model 5 to obtain a plurality of first restored images 105 that are each restored from the plurality of first evaluation images 103 . The first restored image 105 is output information of the learning model 5. The evaluation unit 14 determines the quality of the workpiece W shown in the corresponding first evaluation image 103 depending on whether each first restored image 105 satisfies the determination conditions.

具体的には、評価部14は、各第1評価用画像103と各第1復元画像105との差分を示す差分画像107を生成し、差分画像107と判定パラメータ56とを用いて、各第1評価用画像103に欠陥Lが写っているか否かを判定する。判定パラメータ56は、判定条件を定義付ける。欠陥Lが第1評価用画像103に写っている場合、評価部14は、第1評価用画像103に写るワークWが不良品であると判定する。 Specifically, the evaluation unit 14 generates a difference image 107 showing the difference between each first evaluation image 103 and each first restored image 105, and uses the difference image 107 and the determination parameter 56 to determine each first evaluation image 103 and each first restored image 105. It is determined whether the defect L is shown in the first evaluation image 103. The determination parameter 56 defines the determination condition. When the defect L is shown in the first evaluation image 103, the evaluation unit 14 determines that the work W shown in the first evaluation image 103 is a defective product.

同様に、評価部14は、複数の第2評価用画像104を学習モデル5に入力することにより、複数の第2評価用画像104をそれぞれ復元した複数の第2復元画像106を取得する。第2復元画像106は、学習モデル5の出力情報である。評価部14は、各第2復元画像106が判定条件を満たすか否かに応じて、対応する第2評価用画像104に写るワークWの良否を判定する。 Similarly, the evaluation unit 14 inputs the plurality of second evaluation images 104 to the learning model 5, thereby obtaining a plurality of second restored images 106 that are each restored from the plurality of second evaluation images 104. The second restored image 106 is output information of the learning model 5. The evaluation unit 14 determines the quality of the workpiece W shown in the corresponding second evaluation image 104 depending on whether each second restored image 106 satisfies the determination conditions.

具体的には、評価部14は、各第2評価用画像104と各第2復元画像106との差分を示す差分画像108を生成し、差分画像108と判定条件を定義付ける判定パラメータ56とを用いて、各第2評価用画像104に欠陥Lが写っているか否かを判定する。欠陥Lが第2評価用画像104に写っている場合、評価部14は、第2評価用画像104に写るワークWが不良品であると判定する。 Specifically, the evaluation unit 14 generates a difference image 108 showing the difference between each second evaluation image 104 and each second restored image 106, and uses the difference image 108 and the determination parameter 56 that defines the determination condition. Then, it is determined whether the defect L is included in each second evaluation image 104. If the defect L is shown in the second evaluation image 104, the evaluation unit 14 determines that the workpiece W shown in the second evaluation image 104 is defective.

上述したように、評価部14には、各画像(103、104)に欠陥Lが写っているか否かを判定するための判定条件を定義付ける判定パラメータ56が与えられる。例えば、判定パラメータ56の値は、オペレータの入力により指定されてもよいし、プログラム内の設定値として与えられてよい。本実施形態では、複数の判定パラメータ候補55が与えられ、複数の判定パラメータ候補55のうちの1つが判定パラメータ56として決定される。各判定パラメータ候補55は、判定パラメータの候補の値を示す。各判定パラメータ候補55の値は適宜与えられてよい。 As described above, the evaluation unit 14 is provided with the determination parameters 56 that define the determination conditions for determining whether the defect L is included in each image (103, 104). For example, the value of the determination parameter 56 may be specified by operator input, or may be given as a set value within the program. In this embodiment, a plurality of determination parameter candidates 55 are given, and one of the plurality of determination parameter candidates 55 is determined as the determination parameter 56. Each determination parameter candidate 55 indicates a value of a determination parameter candidate. The value of each determination parameter candidate 55 may be given as appropriate.

評価部14は、各判定パラメータ候補55を利用して、各第1評価用画像103に欠陥Lが写っているか否かの判定、および各第2評価用画像104に欠陥Lが写っているか否かの判定を実行する。 The evaluation unit 14 uses each determination parameter candidate 55 to determine whether the defect L is depicted in each first evaluation image 103 and whether or not the defect L is depicted in each second evaluation image 104. Execute the judgment.

評価部14は、各判定の結果に基づいて、複数の第1評価用画像103のうち、ワークWが不良品と判定された第1評価用画像103(すなわち、欠陥Lが写っていると判定された第1評価用画像103)の第1割合に応じた第1評価値を算出する。第1評価値は、例えば第1割合を百分率で表した値(以下、「見過ぎ率」と称する。)である。なお、第1評価値は、見過ぎ率に限定されず、100から見過ぎ率を差し引いた値であってもよい。 Based on the results of each determination, the evaluation unit 14 determines which of the plurality of first evaluation images 103 is the first evaluation image 103 in which the workpiece W is determined to be defective (that is, it is determined that the defect L is captured). A first evaluation value is calculated according to the first ratio of the first evaluation image 103). The first evaluation value is, for example, a value expressed as a percentage of the first ratio (hereinafter referred to as "overlooking rate"). Note that the first evaluation value is not limited to the overwatch rate, and may be a value obtained by subtracting the overwatch rate from 100.

さらに、評価部14は、各判定の結果に基づいて、複数の第2評価用画像104のうち、ワークWが良品と判定された第2評価用画像104(すなわち、欠陥Lが写っていないと判定された第2評価用画像104)の第2割合に応じた第2評価値を算出する。第2評価値は、例えば第2割合を百分率で表した値(以下、「見逃し率」と称する。)である。なお、第2評価値は、見逃し率に限定されず、100から見逃し率を差し引いた値であってもよい。 Furthermore, based on the results of each determination, the evaluation unit 14 determines, among the plurality of second evaluation images 104, that the second evaluation image 104 in which the workpiece W is determined to be non-defective (that is, the defect L is not included in the second evaluation image 104) A second evaluation value is calculated according to the second ratio of the determined second evaluation image 104). The second evaluation value is, for example, a value representing the second ratio as a percentage (hereinafter referred to as "miss rate"). Note that the second evaluation value is not limited to the missed rate, and may be a value obtained by subtracting the missed rate from 100.

製造ラインにおいて、不良品が良品として出荷されることは、できるだけ回避されるべきである。そのため、評価部14は、複数の判定パラメータ候補55のうち、第2割合が予め定められた閾値(以下、「許容見逃し率」と称する。)以下となる1つの判定パラメータ候補を判定パラメータ56として決定する。許容見逃し率は、例えばユーザ入力等によって予め設定されている。許容見逃し率は、例えば0である。第2割合が許容見逃し率以下となる2以上の判定パラメータ候補が存在する場合、評価部14は、当該2以上の判定パラメータ候補のうち第1割合が最も小さい1つの判定パラメータ候補を判定パラメータ56として決定する。第2割合が許容見逃し率以下となる判定パラメータ候補が存在しない場合、評価部14は、複数の判定パラメータ候補55のうち第2割合が最も小さい1つの判定パラメータ候補を判定パラメータ56として決定する。これにより、評価部14は、ワークWの良否を判定するための判定条件を自動的に最適化する。 In the production line, it is important to avoid shipping defective products as non-defective products as much as possible. Therefore, the evaluation unit 14 selects one judgment parameter candidate whose second ratio is equal to or less than a predetermined threshold (hereinafter referred to as "acceptable missed rate") among the plurality of judgment parameter candidates 55 as the judgment parameter 56. decide. The allowable missed rate is set in advance, for example, by user input. The allowable missed rate is, for example, 0. If there are two or more determination parameter candidates whose second ratio is less than or equal to the allowable missed rate, the evaluation unit 14 selects one determination parameter candidate whose first ratio is the smallest among the two or more determination parameter candidates as the determination parameter 56. Determine as. If there is no determination parameter candidate whose second ratio is less than or equal to the allowable missed rate, the evaluation unit 14 determines one determination parameter candidate whose second ratio is the smallest among the plurality of determination parameter candidates 55 as the determination parameter 56. Thereby, the evaluation unit 14 automatically optimizes the determination conditions for determining the quality of the workpiece W.

評価部14は、決定した判定パラメータ56を利用した判定において算出された第1評価値および第2評価値を、学習モデル5の性能の評価結果として出力する。 The evaluation unit 14 outputs the first evaluation value and the second evaluation value calculated in the determination using the determined determination parameter 56 as an evaluation result of the performance of the learning model 5.

図7は、判定パラメータの一例を示す図である。図7において、画像I10は、図7に示す第1評価用画像103および第2評価用画像104の各々に対応する。復元画像I11は、図7に示す第1復元画像105および第2復元画像106の各々に対応する。 FIG. 7 is a diagram showing an example of determination parameters. In FIG. 7, an image I10 corresponds to each of the first evaluation image 103 and the second evaluation image 104 shown in FIG. The restored image I11 corresponds to each of the first restored image 105 and the second restored image 106 shown in FIG. 7.

評価部14は、画像I10と復元画像I11との差分を算出することで、差分画像I12を生成する。差分画像I12は、図7に示す差分画像107,108の各々に対応する。画像I10と復元画像I11との間で差異が生じている画素ほど差分画像I12においてその画素値が大きくなる。一方、画像I10と復元画像I11との間で差異のない画素ほど差分画像I12における画素値は小さくなる。本実施形態では、説明の便宜のため、画像I10と復元画像I11との間の差異が大きい画素ほど差分画像I12内の対応画素の実際の画素値も大きくなり、差異が小さい画素ほど差分画像I12内の対応画素の実際の画素値も小さくなると仮定する。ただし、この「画素値が大きい」及び「画素値が小さい」はそれぞれ、画像I10と復元画像I11との間の差異との関係を示しており、差分画像I12内の画素の実際の画素値と対応していなくてもよい。例えば、差分画像I12は、差異の大きい画素ほど対応する画素の実際の画素値が小さくなり、差異の小さい画素ほど対応する画素の実際の画素値が大きくなるように算出されてよい。 The evaluation unit 14 generates a difference image I12 by calculating the difference between the image I10 and the restored image I11. The difference image I12 corresponds to each of the difference images 107 and 108 shown in FIG. The pixel value that is more different between the image I10 and the restored image I11 becomes larger in the difference image I12. On the other hand, the less different a pixel is between the image I10 and the restored image I11, the smaller the pixel value in the difference image I12. In this embodiment, for convenience of explanation, the larger the difference between a pixel between the image I10 and the restored image I11, the larger the actual pixel value of the corresponding pixel in the difference image I12, and the smaller the difference is, the larger the actual pixel value of the corresponding pixel in the difference image I12. Assume that the actual pixel value of the corresponding pixel within is also smaller. However, "the pixel value is large" and "the pixel value is small" each indicate the relationship between the difference between the image I10 and the restored image I11, and the actual pixel value of the pixel in the difference image I12. It doesn't have to be compatible. For example, the difference image I12 may be calculated such that the larger the difference between pixels, the smaller the actual pixel value of the corresponding pixel, and the smaller the difference between the pixels, the larger the actual pixel value of the corresponding pixel.

図7の例では、画像I10と復元画像I11との間で差異が生じている画素ほど差分画像I12において白色になっており、そうではない画素ほど黒色になっている。例えば、各画素の値が256階調で表現される場合、差分画像I12の画素の画素値の最大値が「255」であってよく、最小値が「0」であってよい。この場合、差分画像I12の画素の画素値が大きいほど、画像I10と復元画像I11との間で差異が生じていることを示し、差分画像I12の画素の画素値が小さいほど、画像I10と復元画像I11との間で差異が生じていないことを示す。ただし、画像I10と復元画像I11との間で生じる差異と差分画像I12の画素値との間の関係は、このような例に限定されなくてよい。例えば、画像I10及び復元画像I11の間の差異の程度と差分画像I12の画素値との関係は、この反対であってもよい。 In the example of FIG. 7, the pixels that have a difference between the image I10 and the restored image I11 are white in the difference image I12, and the pixels that are not so different are black. For example, when the value of each pixel is expressed in 256 gradations, the maximum value of the pixel value of the pixels of the difference image I12 may be "255", and the minimum value may be "0". In this case, the larger the pixel value of the pixel of the difference image I12, the more difference occurs between the image I10 and the restored image I11, and the smaller the pixel value of the pixel of the difference image I12, the more the difference between the image I10 and the restored image This shows that there is no difference between the image I11 and the image I11. However, the relationship between the difference that occurs between the image I10 and the restored image I11 and the pixel values of the difference image I12 is not limited to this example. For example, the relationship between the degree of difference between the image I10 and the restored image I11 and the pixel value of the difference image I12 may be the opposite.

学習モデル5の機械学習に使用された学習用画像101に写っていない又は写る可能性の低い特徴(欠陥Lなど)が画像I10に写っている場合、復元画像I11においてその特徴の再現性が低い。そのため、画像I10と復元画像I11との間で比較的に大きな差異が生じ得る。ただし、画像I10と復元画像I11との間に生じる差異の原因は、このような欠陥Lが画像I10に写っていることに限られない。画像I10と復元画像I11との間で比較的に大きな差異を生じさせるその他の原因として、例えば、入力画像に写るワークWの様子が、機械学習に使用した学習用画像101に写るワークWの様子と異なっていることが挙げられる。この場合、画像I10に写るワークWの様子が復元画像I11では完全には再現されず、画像I10と復元画像I11との間で比較的に大きな差異を生じさせる可能性がある。 If a feature (such as a defect L) that is not included or is unlikely to be included in the learning image 101 used for machine learning of the learning model 5 is included in the image I10, the reproducibility of that feature is low in the restored image I11. . Therefore, a relatively large difference may occur between the image I10 and the restored image I11. However, the cause of the difference between the image I10 and the restored image I11 is not limited to the fact that such a defect L appears in the image I10. Another cause of a relatively large difference between the image I10 and the restored image I11 is that, for example, the appearance of the workpiece W in the input image may be different from the appearance of the workpiece W in the learning image 101 used for machine learning. There are some differences between the two. In this case, the appearance of the workpiece W reflected in the image I10 may not be completely reproduced in the restored image I11, which may cause a relatively large difference between the image I10 and the restored image I11.

また、例えば、学習モデル5は、入力画像を低次元の特徴量に圧縮する。このときに、入力画像の情報が部分的に損失し得る。そのため、入力画像と復元画像との間で多少の誤差が生じ得る。この復元のノイズが、画像I10と復元画像I11との間に生じる差異の原因の一例となり得る。したがって、差分画像I12には、欠陥Lに起因する差異以外に、複数の要因に基づく差異が現れ得る。しかしながら、このノイズに起因する差異は、上記2つの要因に基づく差異よりも程度が低い。そのため、差分画像I12の画素値に基づいて、これらの差異を区別することができる。 Further, for example, the learning model 5 compresses the input image into a low-dimensional feature amount. At this time, information of the input image may be partially lost. Therefore, some error may occur between the input image and the restored image. This restoration noise can be an example of the cause of the difference between the image I10 and the restored image I11. Therefore, in addition to the difference caused by the defect L, differences based on a plurality of factors may appear in the difference image I12. However, the difference due to this noise is of a lower magnitude than the difference due to the above two factors. Therefore, these differences can be distinguished based on the pixel values of the difference image I12.

評価部14は、閾値57を利用して、差分画像I12の各画素を二値化する。例えば、評価部14は、画素値が閾値57以上である画素の画素値を「255」に変換し、画素値が閾値57未満である画素の画素値を「0」に変換する。「以上」は、「超える」に置き換えられ、「未満」は、「以下」に置き換えられてよい。以下の説明においても同様である。これにより、評価部14は、二値化画像I13を生成することができる。閾値57を適切に設定することで、上記ノイズに起因する差異等の比較的に程度の低い差異が元の差分画像I12から除外された二値化画像I13を得ることができる。 The evaluation unit 14 binarizes each pixel of the difference image I12 using the threshold value 57. For example, the evaluation unit 14 converts the pixel value of a pixel whose pixel value is equal to or greater than the threshold value 57 to "255", and converts the pixel value of a pixel whose pixel value is less than the threshold value 57 to "0". “More than” may be replaced with “more than” and “less than” may be replaced with “less than”. The same applies to the following description. Thereby, the evaluation unit 14 can generate the binarized image I13. By appropriately setting the threshold value 57, it is possible to obtain a binarized image I13 in which relatively low-level differences such as those caused by the noise are excluded from the original difference image I12.

二値化画像I13には、主に、欠陥Lに起因する差異、及び学習不足に起因する差異が現れ得る。これらの差異を生じさせる原因のうち、欠陥Lは、面積、幅、高さ、周囲の長さ、縦横比、円形度等の形状に関する属性を有し得る。つまり、画像I10に写るワークWに欠陥Lが存在する場合、二値化画像I13の対応する位置に、白色「255」の画素(以下、白色画素とも称する)の集まった領域であって、欠陥Lと同等の形状に関する属性を有する領域が現れる。そこで、形状に関する属性に対して閾値58を設定することで、二値化画像I13内に欠陥Lが写っているか否かを判定することができる。 Differences due to the defect L and differences due to insufficient learning may appear in the binarized image I13. Among the causes of these differences, the defect L may have attributes related to shape, such as area, width, height, circumference, aspect ratio, and circularity. That is, when a defect L exists in the workpiece W shown in the image I10, the defect L is located in an area where white "255" pixels (hereinafter also referred to as white pixels) are gathered at the corresponding position in the binarized image I13. A region having shape-related attributes equivalent to L appears. Therefore, by setting the threshold value 58 for the attribute related to the shape, it is possible to determine whether the defect L is included in the binarized image I13.

処理の一例として、評価部14は、二値化画像I13内の連続する白色画素の領域を一つの領域と認定し、白色画素の各領域が閾値58を満たしているか否かを判定する。そして、評価部14は、閾値58を満たしている領域をそのままにし、閾値58を満たしていない領域内の画素の画素値を「0」に変換する。例えば、閾値58が面積に対して設定される場合、評価部14は、白色画素の各領域の面積が閾値58以上であるか否かを判定する。そして、評価部14は、面積が閾値58未満である領域内の画素の画素値を「0」に変換する。これにより、評価部14は、検出画像I14を生成することができる。閾値58を適切に設定することで、欠陥Lの属性を満たさない白色領域が二値化画像I13から除外された検出画像I14を得ることができる。 As an example of the process, the evaluation unit 14 identifies a region of continuous white pixels in the binarized image I13 as one region, and determines whether each region of white pixels satisfies the threshold value 58. Then, the evaluation unit 14 leaves the area that satisfies the threshold value 58 as it is, and converts the pixel values of pixels in the area that does not satisfy the threshold value 58 to "0". For example, when the threshold value 58 is set for area, the evaluation unit 14 determines whether the area of each region of white pixels is equal to or larger than the threshold value 58. Then, the evaluation unit 14 converts the pixel values of pixels within the area whose area is less than the threshold value 58 to "0". Thereby, the evaluation unit 14 can generate the detected image I14. By appropriately setting the threshold value 58, it is possible to obtain a detected image I14 in which white areas that do not satisfy the attributes of the defect L are excluded from the binarized image I13.

評価部14は、検出画像I14に白色画素の領域が存在するか否かに応じて、画像I10に欠陥Lが写っているか否かを判定する。具体的に、検出画像I14において白色画素の領域が存在する場合、評価部14は、画像I10の対応する領域に欠陥Lが写っていると判定する。一方、検出画像I14において白色画素の領域が存在しない場合、評価部14は、画像I10に欠陥Lが写っていないと判定する。 The evaluation unit 14 determines whether the defect L is included in the image I10, depending on whether a white pixel area exists in the detected image I14. Specifically, when a region of white pixels exists in the detected image I14, the evaluation unit 14 determines that the defect L is reflected in the corresponding region of the image I10. On the other hand, if there is no area of white pixels in the detected image I14, the evaluation unit 14 determines that the defect L is not included in the image I10.

以上の欠陥Lの検出に関する処理手順において、閾値57,58が、判定パラメータの一例である。すなわち、本実施形態では、各判定パラメータ候補55は、閾値57,58の組み合わせにより構成される。ただし、欠陥Lを検出する方法及び判定パラメータはそれぞれ、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。 In the processing procedure regarding the detection of the defect L described above, the threshold values 57 and 58 are examples of determination parameters. That is, in this embodiment, each determination parameter candidate 55 is configured by a combination of threshold values 57 and 58. However, the method for detecting the defect L and the determination parameters are not limited to these examples, and may be appropriately selected depending on the embodiment.

(C-3.受付部)
上述したように、システムSYSの立ち上げ段階では、学習用画像グループ11に含まれる学習用画像101の個数は不十分であり、立ち上げ段階における学習モデル5の性能は十分ではない。
(C-3. Reception Department)
As described above, at the start-up stage of the system SYS, the number of learning images 101 included in the learning image group 11 is insufficient, and the performance of the learning model 5 at the start-up stage is not sufficient.

例えば、ワークWには個体差が生じ得る。また、例えば、撮影のタイミング等の撮影条件が変動し得る(一例として、ワークWの位置がずれたり、傾いたりすることがある)。これらの要因により、得られる画像内に表れるワークWの様子は異なり得る。システムSYSの立ち上げ段階では、学習モデル5が、学習用画像グループ11に含まれる学習用画像101に表れる範囲以外の範囲について、ワークWの写る画像を復元する能力を獲得しているか否かは不明である。 For example, individual differences may occur in the work W. Furthermore, for example, photographing conditions such as the timing of photographing may change (for example, the position of the workpiece W may shift or be tilted). Depending on these factors, the appearance of the work W appearing in the obtained image may vary. At the start-up stage of the system SYS, it is difficult to determine whether the learning model 5 has acquired the ability to restore the image of the workpiece W in a range other than the range appearing in the learning image 101 included in the learning image group 11. It is unknown.

そのため、システムSYSでは、追加学習に関する操作が繰り返し行なわれ、学習モデル5の性能向上が図られる。 Therefore, in the system SYS, operations related to additional learning are repeatedly performed to improve the performance of the learning model 5.

受付部15は、追加学習に関する操作を受け付ける。図6に例示される受付部15は、学習用画像グループ11を更新する第1操作と、評価用画像グループ12を更新する第2操作とを受け付ける。受付部15は、受け付けた第1操作に応じて、学習用画像グループ11を更新する。受付部15は、受け付けた第2操作に応じて、評価用画像グループ12を更新する。 The reception unit 15 receives operations related to additional learning. The receiving unit 15 illustrated in FIG. 6 receives a first operation for updating the learning image group 11 and a second operation for updating the evaluation image group 12. The reception unit 15 updates the learning image group 11 according to the received first operation. The reception unit 15 updates the evaluation image group 12 according to the received second operation.

受付部15は、学習用画像グループ11または評価用画像グループ12に追加する画像を記憶媒体130から読み込んでもよい。あるいは、受付部15は、学習用画像グループ11または評価用画像グループ12に追加する画像を外部の情報処理装置から取得してもよい。あるいは、受付部15は、判定装置2から複数の観測画像201を取得し、当該複数の観測画像201の一部を、学習用画像グループ11または評価用画像グループ12に追加する画像として取得してもよい。以下、観測画像201の一部を学習用画像グループ11または評価用画像グループ12に追加する例について説明する。 The reception unit 15 may read images to be added to the learning image group 11 or the evaluation image group 12 from the storage medium 130. Alternatively, the receiving unit 15 may acquire images to be added to the learning image group 11 or the evaluation image group 12 from an external information processing device. Alternatively, the reception unit 15 acquires a plurality of observation images 201 from the determination device 2, and acquires a part of the plurality of observation images 201 as an image to be added to the learning image group 11 or the evaluation image group 12. Good too. An example of adding a part of the observed image 201 to the learning image group 11 or the evaluation image group 12 will be described below.

判定装置2から取得した複数の観測画像201には、学習効果の高い画像とそうでない画像とが含まれる。学習用画像グループ11には学習効果の高い画像を学習用画像101として追加することが好ましい。そのため、受付部15は、第1操作を支援するために、複数の観測画像201の各々について、学習効果を評価し、その評価結果をユーザに通知する。 The plurality of observed images 201 acquired from the determination device 2 include images that have a high learning effect and images that do not. It is preferable to add images with a high learning effect to the learning image group 11 as the learning images 101. Therefore, in order to support the first operation, the reception unit 15 evaluates the learning effect for each of the plurality of observation images 201, and notifies the user of the evaluation result.

図8は、学習効果の評価方法を説明する図である。受付部15は、取得された複数の観測画像201それぞれを学習モデル5に与えることで、複数の観測画像201それぞれを復元した複数の復元観測画像203を取得する。そして、受付部15は、各観測画像201と各復元観測画像203との間の差分に応じて、学習効果を評価する。具体的には、受付部15は、各復元観測画像203における各観測画像201の復元の程度に対する評価値(以下、「学習効果評価値」と称する。)を算出する。 FIG. 8 is a diagram illustrating a method for evaluating learning effects. The receiving unit 15 obtains a plurality of restored observation images 203 obtained by restoring each of the plurality of observation images 201 by giving each of the plurality of acquired observation images 201 to the learning model 5. Then, the reception unit 15 evaluates the learning effect according to the difference between each observation image 201 and each restored observation image 203. Specifically, the receiving unit 15 calculates an evaluation value (hereinafter referred to as a "learning effect evaluation value") for the degree of restoration of each observed image 201 in each restored observed image 203.

学習効果評価値は、例えば、以下のようにして算出される。受付部15は、各観測画像201と各復元観測画像203との間の差分画像を生成する。差分画像内の画素値の大きい画素は、各観測画像201と各復元観測画像203との間で差異の大きい画素に対応する。差分画像内の画素値の小さい画素は、各観測画像201と各復元観測画像203との間で差異の小さい画素に対応する。受付部15は、差分画像における各画素の画素値に従って、画素値ごとの度数を算出する。「度数」は、同一の画素値の画素数を示す。続いて、受付部15は、差分画像において、画素値に従って降順に整列したときの最上位から所定の順位までの画素を抽出する。所定の順位は、オペレータの入力、プログラム内の設定値等により指定されてよい。そして、受付部15は、抽出された画素の画素値の平均値又は合計値を学習効果評価値として算出する。これにより、算出された学習効果評価値が大きいほど、観測画像201と復元観測画像203との間の差分が大きい、換言すると、復元観測画像203における観測画像201の復元の程度が低いことを示す。 The learning effect evaluation value is calculated as follows, for example. The reception unit 15 generates a difference image between each observation image 201 and each restored observation image 203. A pixel with a large pixel value in the difference image corresponds to a pixel with a large difference between each observation image 201 and each restored observation image 203. A pixel with a small pixel value in the difference image corresponds to a pixel with a small difference between each observation image 201 and each restored observation image 203. The receiving unit 15 calculates the frequency for each pixel value according to the pixel value of each pixel in the difference image. "Frequency" indicates the number of pixels with the same pixel value. Subsequently, the reception unit 15 extracts pixels from the highest rank to a predetermined rank when arranged in descending order according to pixel values in the difference image. The predetermined ranking may be specified by an operator's input, a set value in a program, or the like. Then, the reception unit 15 calculates the average value or total value of the pixel values of the extracted pixels as a learning effect evaluation value. As a result, the larger the calculated learning effect evaluation value, the larger the difference between the observed image 201 and the restored observed image 203, in other words, the lower the degree of restoration of the observed image 201 in the restored observed image 203. .

ただし、学習効果評価値の算出方法は、このような例に限定されない。観測画像201と復元観測画像203との差分と学習効果評価値との間の関係は、学習効果評価値が、当該差分が大きいことに応じて復元の程度が低いことを示し、かつ当該差分が小さいことに応じて復元の程度が高いことを示すように、適宜決定されてよい。例えば、上記算出方法とは反対に、学習効果評価値は、復元の程度が低いほど小さく、復元の程度が高いほど大きくなるように算出されてよい。当該算出方法の一例として、受付部15は、上記の処理により抽出された画素の画素値の平均値又は合計値の逆数を学習効果評価値として算出してもよい。 However, the method of calculating the learning effect evaluation value is not limited to this example. The relationship between the difference between the observation image 201 and the restored observation image 203 and the learning effect evaluation value is such that the learning effect evaluation value indicates that the degree of restoration is low as the difference is large, and the difference is It may be determined as appropriate so that the smaller the value, the higher the degree of restoration. For example, contrary to the calculation method described above, the learning effect evaluation value may be calculated such that the lower the degree of restoration, the smaller the learning effect evaluation value, and the higher the degree of restoration, the larger the learning effect evaluation value. As an example of the calculation method, the receiving unit 15 may calculate the average value or the reciprocal of the total value of the pixel values of the pixels extracted by the above process as the learning effect evaluation value.

観測画像201と復元観測画像203との間の差分が大きいほど、復元観測画像203における観測画像201の復元の程度が低い。観測画像201に写るワークWが良品である場合、この観測画像201に表れるワークWの様子を再現する学習モデル5の能力が不十分であることを示す。そのため、復元観測画像203との差分が大きい、換言すると、復元の程度の低い観測画像201は、ワークWの写る画像を再現する学習モデル5の能力の適切な向上に貢献する可能性が高い。 The larger the difference between the observed image 201 and the restored observed image 203, the lower the degree of restoration of the observed image 201 in the restored observed image 203. If the workpiece W shown in the observation image 201 is a good product, this indicates that the ability of the learning model 5 to reproduce the state of the workpiece W shown in the observation image 201 is insufficient. Therefore, the observed image 201 with a large difference from the restored observed image 203, in other words, the observed image 201 with a low degree of restoration, is likely to contribute to appropriate improvement of the ability of the learning model 5 to reproduce the image in which the workpiece W is captured.

反対に、復元の程度が高い観測画像201は、学習モデル5の能力の適切な向上に貢献する可能性が低い。加えて、復元の程度が高い観測画像201を学習用画像101として学習用画像グループ11に追加することによって、ワークW以外のパターンを復元する能力を向上させてしまう可能性がある。その結果、あらゆるパターンを忠実に再現する能力を学習モデル5に獲得させてしまう可能性がある。 On the contrary, the observed image 201 with a high degree of restoration is unlikely to contribute to appropriate improvement of the ability of the learning model 5. In addition, by adding the observed image 201 with a high degree of restoration to the learning image group 11 as the learning image 101, the ability to restore patterns other than the workpiece W may be improved. As a result, the learning model 5 may acquire the ability to faithfully reproduce any pattern.

これらの点を考慮して、受付部15は、複数の観測画像201の中から学習用画像101として学習用画像グループ11に追加する画像を選択するための指標として、学習効果評価値をユーザに通知する。 Taking these points into consideration, the reception unit 15 provides the user with a learning effect evaluation value as an index for selecting an image to be added to the learning image group 11 as the learning image 101 from among the plurality of observed images 201. Notice.

また、複数の観測画像201には、不良品のワークWが写っている可能性がある。不良品のワークWの写る観測画像201を学習用画像101として学習用画像グループ11に追加してしまうと、学習モデル5の出力情報を用いてワークWの良否を精度良く判定できなくなる。そのため、受付部15は、複数の観測画像201の各々を表示装置6に表示させ、良品のワークWの写る観測画像201を学習用画像101としてユーザに選択させる。 Furthermore, there is a possibility that the plurality of observation images 201 include defective workpieces W. If the observed image 201 showing the defective workpiece W is added to the learning image group 11 as the learning image 101, it becomes impossible to accurately determine the quality of the workpiece W using the output information of the learning model 5. Therefore, the reception unit 15 displays each of the plurality of observation images 201 on the display device 6, and allows the user to select the observation image 201 in which the good workpiece W is captured as the learning image 101.

図9は、第1操作を受け付けるための画面の一例を示す図である。図9に例示される画面60は、受付部15によって表示装置6に表示される。 FIG. 9 is a diagram showing an example of a screen for accepting the first operation. A screen 60 illustrated in FIG. 9 is displayed on the display device 6 by the reception unit 15.

画面60は、候補リスト61と、学習画像リスト62と、領域63と、追加ボタン64と、削除ボタン65と、学習実行ボタン66とを含む。 The screen 60 includes a candidate list 61, a learning image list 62, an area 63, an add button 64, a delete button 65, and a learning execution button 66.

候補リスト61は、判定装置2から取得した複数の観測画像201のリストである。候補リスト61は、各観測画像201について、ファイル名と対応する学習効果評価値とを示す。 The candidate list 61 is a list of a plurality of observation images 201 acquired from the determination device 2. The candidate list 61 indicates a file name and a corresponding learning effect evaluation value for each observed image 201.

学習画像リスト62は、学習用画像グループ11に含まれる学習用画像101のリストである。学習画像リスト62は、各学習用画像101のファイル名を示す。 The learning image list 62 is a list of the learning images 101 included in the learning image group 11. The learning image list 62 shows the file name of each learning image 101.

領域63には、候補リスト61および学習画像リスト62の中から選択された1つの画像が表示される。 In the area 63, one image selected from the candidate list 61 and the learning image list 62 is displayed.

ユーザは、候補リスト61の学習効果評価値を確認し、学習効果が高いと評価される観測画像201を選択する。ユーザは、領域63に表示される観測画像201を見て、観測画像201に写るワークWが良品か否かを確認する。これにより、ユーザは、良品のワークWが写り、かつ、学習効果の高い観測画像201を学習用画像101として選択できる。 The user checks the learning effect evaluation values in the candidate list 61 and selects the observed image 201 that is evaluated as having a high learning effect. The user looks at the observation image 201 displayed in the area 63 and confirms whether the workpiece W shown in the observation image 201 is a good product. Thereby, the user can select, as the learning image 101, the observation image 201 that shows a good workpiece W and has a high learning effect.

追加ボタン64は、候補リスト61の中から選択された観測画像201を学習用画像101として学習用画像グループに追加する操作(第1操作の1つ)を受け付けるためのボタンである。追加ボタン64が操作されると、受付部15は、候補リスト61の中から選択された観測画像201を学習用画像101として学習用画像グループに追加する。これにより、学習画像リスト62も更新される。 The add button 64 is a button for accepting an operation (one of the first operations) for adding the observed image 201 selected from the candidate list 61 to the learning image group as the learning image 101. When the add button 64 is operated, the reception unit 15 adds the observation image 201 selected from the candidate list 61 to the learning image group as the learning image 101. As a result, the learning image list 62 is also updated.

削除ボタン65は、学習画像リスト62の中から選択された学習用画像101を学習用画像グループ11から削除する操作(第1操作の1つ)を受け付けるためのボタンである。例えば、ユーザは、領域63を見ながら、不要な学習用画像101を学習画像リスト62の中から選択し、削除ボタン65を操作する。削除ボタン65が操作されると、受付部15は、学習画像リスト62の中から選択された学習用画像101を学習用画像グループ11から削除する。これにより、学習画像リスト62も更新される。 The delete button 65 is a button for accepting an operation (one of the first operations) for deleting the learning image 101 selected from the learning image list 62 from the learning image group 11. For example, the user selects the unnecessary learning image 101 from the learning image list 62 while looking at the area 63, and operates the delete button 65. When the delete button 65 is operated, the reception unit 15 deletes the learning image 101 selected from the learning image list 62 from the learning image group 11. As a result, the learning image list 62 is also updated.

学習実行ボタン66は、更新された学習用画像グループ11を用いた機械学習の実行を指示するためのボタンである。学習実行ボタン66が操作されると、学習部13は、更新された学習用画像グループ11を用いた機械学習を行なうことにより、学習モデル5を生成する。さらに、評価部14は、生成された学習モデル5の性能を評価する。生成された学習モデル5を示すモデルデータ123は判定装置2に転送される。さらに、評価部14によって決定された判定パラメータ56も判定装置2に転送される。 The learning execution button 66 is a button for instructing execution of machine learning using the updated learning image group 11. When the learning execution button 66 is operated, the learning unit 13 generates the learning model 5 by performing machine learning using the updated learning image group 11. Furthermore, the evaluation unit 14 evaluates the performance of the generated learning model 5. Model data 123 indicating the generated learning model 5 is transferred to the determination device 2. Further, the determination parameter 56 determined by the evaluation unit 14 is also transferred to the determination device 2.

図10は、第2操作を受け付けるための画面の一例を示す図である。図10に例示される画面70は、受付部15によって表示装置6に表示される。 FIG. 10 is a diagram showing an example of a screen for accepting the second operation. A screen 70 illustrated in FIG. 10 is displayed on the display device 6 by the reception unit 15.

画面70は、候補リスト71と、良品画像リスト72と、不良品画像リスト73と、領域74と、追加ボタン75a,75bと、移動ボタン76と、削除ボタン77a,77bと、評価実行ボタン78とを含む。 The screen 70 includes a candidate list 71, a good product image list 72, a defective product image list 73, an area 74, add buttons 75a and 75b, a move button 76, delete buttons 77a and 77b, and an evaluation execution button 78. including.

候補リスト71は、図9に示す候補リスト61と同様に、判定装置2から取得した複数の観測画像201のリストである。良品画像リスト72は、評価用画像グループ12に含まれる第1評価用画像103のリストである。良品画像リスト72は、各第1評価用画像103のファイル名を示す。不良品画像リスト73は、評価用画像グループ12に含まれる第2評価用画像104のリストである。不良品画像リスト73は、各第2評価用画像104のファイル名を示す。領域74には、候補リスト71、良品画像リスト72および不良品画像リスト73の中から選択された1つの画像が表示される。 The candidate list 71 is a list of a plurality of observation images 201 acquired from the determination device 2, similar to the candidate list 61 shown in FIG. The non-defective image list 72 is a list of the first evaluation images 103 included in the evaluation image group 12. The non-defective image list 72 shows the file name of each first evaluation image 103. The defective product image list 73 is a list of the second evaluation images 104 included in the evaluation image group 12. The defective product image list 73 shows the file name of each second evaluation image 104. In the area 74, one image selected from the candidate list 71, the non-defective image list 72, and the defective image list 73 is displayed.

追加ボタン75aは、候補リスト71の中から選択された観測画像201を第1評価用画像103として評価用画像グループ12に追加する操作(第2操作の1つ)を受け付けるためのボタンである。ユーザは、領域74を見ながら、良品のワークWの写る観測画像201を候補リスト71の中から選択し、追加ボタン75aを操作する。追加ボタン75aが操作されると、受付部15は、候補リスト71の中から選択された観測画像201を第1評価用画像103として評価用画像グループ12に追加する。これにより、良品画像リスト72も更新される。 The add button 75a is a button for accepting an operation (one of the second operations) for adding the observed image 201 selected from the candidate list 71 to the evaluation image group 12 as the first evaluation image 103. The user selects the observation image 201 showing the good workpiece W from the candidate list 71 while looking at the area 74, and operates the add button 75a. When the add button 75a is operated, the reception unit 15 adds the observation image 201 selected from the candidate list 71 to the evaluation image group 12 as the first evaluation image 103. As a result, the non-defective image list 72 is also updated.

追加ボタン75bは、候補リスト71の中から選択された観測画像201を第2評価用画像104として評価用画像グループ12に追加する操作(第2操作の1つ)を受け付けるためのボタンである。ユーザは、領域74を見ながら、不良品のワークWの写る観測画像201を候補リスト71の中から選択し、追加ボタン75bを操作する。追加ボタン75bが操作されると、受付部15は、候補リスト71の中から選択された観測画像201を第2評価用画像104として評価用画像グループ12に追加する。これにより、不良品画像リスト73も更新される。 The add button 75b is a button for accepting an operation (one of the second operations) for adding the observed image 201 selected from the candidate list 71 to the evaluation image group 12 as the second evaluation image 104. The user selects the observation image 201 in which the defective workpiece W appears from the candidate list 71 while looking at the area 74, and operates the add button 75b. When the add button 75b is operated, the reception unit 15 adds the observation image 201 selected from the candidate list 71 to the evaluation image group 12 as the second evaluation image 104. As a result, the defective product image list 73 is also updated.

移動ボタン76は、良品画像リスト72および不良品画像リスト73の一方の中から選択された1つの画像を他方に移動する操作(第2操作の1つ)を受け付けるためのボタンである。例えば、ユーザは、領域74を見ながら、良品画像リスト72に含まれる第1評価用画像103に不良品のワークWが写っていることを確認すると、不良品のワークWの写る第1評価用画像103を選択し、移動ボタン76を操作する。あるいは、ユーザは、領域74を見ながら、不良品画像リスト73に含まれる第2評価用画像104に良品のワークWが写っていることを確認すると、良品のワークWの写る第2評価用画像104を選択し、移動ボタン76を操作する。 The move button 76 is a button for accepting an operation (one of the second operations) of moving one image selected from either the non-defective product image list 72 or the defective product image list 73 to the other. For example, when the user confirms that a defective workpiece W is captured in the first evaluation image 103 included in the non-defective image list 72 while looking at the area 74, the user Select image 103 and operate move button 76. Alternatively, when the user confirms that the non-defective workpiece W is captured in the second evaluation image 104 included in the defective product image list 73 while looking at the area 74, the user selects a second evaluation image in which the non-defective workpiece W is captured. 104 and operate the move button 76.

良品画像リスト72の中の1つの第1評価用画像103が選択された状態で移動ボタン76が操作されると、受付部15は、選択された第1評価用画像103を第2評価用画像104に変更する。不良品画像リスト73の中の1つの第2評価用画像104が選択された状態で移動ボタン76が操作されると、受付部15は、選択された第2評価用画像104を第1評価用画像103に変更する。これにより、良品画像リスト72および不良品画像リスト73も更新される。 When the move button 76 is operated with one first evaluation image 103 in the non-defective image list 72 selected, the reception unit 15 transfers the selected first evaluation image 103 to the second evaluation image. Change it to 104. When the move button 76 is operated with one second evaluation image 104 in the defective product image list 73 selected, the reception unit 15 selects the selected second evaluation image 104 as the first evaluation image. Change to image 103. As a result, the non-defective image list 72 and the defective image list 73 are also updated.

削除ボタン77aは、良品画像リスト72の中から選択された第1評価用画像103を評価用画像グループ12から削除する操作(第2操作の1つ)を受け付けるためのボタンである。削除ボタン77aが操作されると、受付部15は、良品画像リスト72の中から選択された第1評価用画像103を評価用画像グループ12から削除する。これにより、良品画像リスト72も更新される。 The delete button 77a is a button for accepting an operation (one of the second operations) for deleting the first evaluation image 103 selected from the non-defective image list 72 from the evaluation image group 12. When the delete button 77a is operated, the reception unit 15 deletes the first evaluation image 103 selected from the non-defective image list 72 from the evaluation image group 12. As a result, the non-defective image list 72 is also updated.

削除ボタン77bは、不良品画像リスト73の中から選択された第2評価用画像104を評価用画像グループ12から削除する操作(第2操作の1つ)を受け付けるためのボタンである。削除ボタン77bが操作されると、受付部15は、不良品画像リスト73の中から選択された第2評価用画像104を評価用画像グループ12から削除する。これにより、不良品画像リスト73も更新される。 The delete button 77b is a button for accepting an operation (one of the second operations) for deleting the second evaluation image 104 selected from the defective product image list 73 from the evaluation image group 12. When the delete button 77b is operated, the reception unit 15 deletes the second evaluation image 104 selected from the defective product image list 73 from the evaluation image group 12. As a result, the defective product image list 73 is also updated.

評価実行ボタン78は、更新された評価用画像グループ12を用いた評価の実行を指示するためのボタンである。評価実行ボタン78が押下されると、評価部14は、更新後の評価用画像グループを用いて学習モデル5の性能を再評価する。このとき評価部14によって決定された判定パラメータは、判定装置2に転送される。 The evaluation execution button 78 is a button for instructing execution of evaluation using the updated evaluation image group 12. When the evaluation execution button 78 is pressed, the evaluation unit 14 re-evaluates the performance of the learning model 5 using the updated evaluation image group. The determination parameters determined by the evaluation unit 14 at this time are transferred to the determination device 2.

(C-4.記録部)
記録部16は、受付部15が機械学習に関する操作(第1操作および第2操作)を受け付けるたびに、受け付けた操作の内容と、学習モデル5の性能の評価の結果とを対応付けて記録する。記録部16は、記憶部120に格納された履歴情報125に記録結果を追加する。
(C-4. Recording Department)
Each time the reception unit 15 receives an operation related to machine learning (a first operation and a second operation), the recording unit 16 records the contents of the received operation in association with the results of evaluating the performance of the learning model 5. . The recording unit 16 adds the recording results to the history information 125 stored in the storage unit 120.

図11は、記録部によって生成される履歴情報の一例を示す図である。図11に示されるように、履歴情報125は、操作ごとに、操作内容と、学習モデル5の性能の評価結果と、学習モデル5を示すモデルデータ123と、学習用画像101の枚数と、評価部14によって決定された判定パラメータ56とを対応付けたテーブルである。図11に例示される履歴情報125では、評価結果として「見逃し率」および「見過ぎ率」が記録されている。また、判定パラメータとして、図7に示す閾値57,58の値が記録されている。なお、履歴情報125には、操作を受け付けた日時が含まれてもよい。 FIG. 11 is a diagram illustrating an example of history information generated by the recording unit. As shown in FIG. 11, the history information 125 includes, for each operation, the operation details, the performance evaluation result of the learning model 5, the model data 123 indicating the learning model 5, the number of learning images 101, and the evaluation. This is a table in which the determination parameters 56 determined by the unit 14 are associated with each other. In the history information 125 illustrated in FIG. 11, "overlook rate" and "overlook rate" are recorded as evaluation results. Moreover, the values of threshold values 57 and 58 shown in FIG. 7 are recorded as determination parameters. Note that the history information 125 may include the date and time when the operation was received.

例えば受付部15が第1操作を受け付けると、記録部16は、学習用画像グループ11の更新内容と、更新後の学習用画像グループ11を用いて生成された学習モデル5の性能の評価結果と、当該学習モデル5を定義付けるモデルデータ123と、更新後の学習用画像グループ11に含まれる学習用画像101の枚数と、評価部14によって決定された判定パラメータ56とを対応付けたレコードを作成する。記録部16は、作成したレコードを履歴情報125の末尾に追加する。 For example, when the receiving unit 15 accepts the first operation, the recording unit 16 records the updated contents of the learning image group 11 and the performance evaluation result of the learning model 5 generated using the updated learning image group 11. , creates a record that associates the model data 123 that defines the learning model 5, the number of learning images 101 included in the updated learning image group 11, and the determination parameter 56 determined by the evaluation unit 14. . The recording unit 16 adds the created record to the end of the history information 125.

受付部15が第2操作を受け付けると、記録部16は、評価用画像グループ12の更新内容と、現状の学習モデル5に対する、更新後の評価用画像グループ12を用いた性能の評価結果と、現状の学習モデル5を定義付けるモデルデータ123と、現状の学習用画像グループ11に含まれる学習用画像101の枚数と、評価部14によって決定された判定パラメータ56とを対応付けたレコードを作成する。記録部16は、作成したレコードを履歴情報125の末尾に追加する。 When the receiving unit 15 accepts the second operation, the recording unit 16 records the updated contents of the evaluation image group 12, the performance evaluation results using the updated evaluation image group 12 for the current learning model 5, and A record is created in which the model data 123 that defines the current learning model 5, the number of learning images 101 included in the current learning image group 11, and the determination parameter 56 determined by the evaluation unit 14 are associated. The recording unit 16 adds the created record to the end of the history information 125.

図12は、記録部によって生成される履歴情報の別の例を示す図である。図12に示されるように、履歴情報125は、操作ごとに、操作内容と、学習モデル5の性能の評価結果と、学習用画像グループ11に含まれる学習用画像101の一覧と、評価用画像グループ12に含まれる第1評価用画像103および第2評価用画像104それぞれの一覧と、評価部14によって決定された判定パラメータ56とを対応付けたテーブルである。なお、履歴情報125には、操作を受け付けた日時が含まれてもよい。 FIG. 12 is a diagram showing another example of history information generated by the recording unit. As shown in FIG. 12, the history information 125 includes, for each operation, the operation details, the performance evaluation result of the learning model 5, the list of learning images 101 included in the learning image group 11, and the evaluation images. This is a table in which lists of the first evaluation images 103 and second evaluation images 104 included in the group 12 are associated with the determination parameters 56 determined by the evaluation unit 14. Note that the history information 125 may include the date and time when the operation was received.

例えば受付部15が第1操作を受け付けると、記録部16は、学習用画像グループ11の更新内容と、更新後の学習用画像グループ11を用いて生成された学習モデル5の性能の評価結果と、更新後の学習用画像グループ11に含まれる学習用画像101の一覧と、現状の評価用画像グループ12に含まれる第1評価用画像103および第2評価用画像104それぞれの一覧と、評価部14によって決定された判定パラメータ56とを対応付けたレコードを作成する。記録部16は、作成したレコードを履歴情報125の末尾に追加する。 For example, when the receiving unit 15 accepts the first operation, the recording unit 16 records the updated contents of the learning image group 11 and the performance evaluation result of the learning model 5 generated using the updated learning image group 11. , a list of learning images 101 included in the updated learning image group 11, a list of each of the first evaluation images 103 and second evaluation images 104 included in the current evaluation image group 12, and the evaluation unit. A record is created in which the determination parameters 56 determined in step 14 are associated with each other. The recording unit 16 adds the created record to the end of the history information 125.

受付部15が第2操作を受け付けると、記録部16は、評価用画像グループ12の更新内容と、現状の学習モデル5に対する、更新後の評価用画像グループ12を用いた性能の評価結果と、現状の学習用画像グループ11に含まれる学習用画像101の一覧と、更新後の評価用画像グループ12に含まれる第1評価用画像103および第2評価用画像104それぞれの一覧と、評価部14によって決定された判定パラメータ56とを対応付けたレコードを作成する。記録部16は、作成したレコードを履歴情報125の末尾に追加する。 When the receiving unit 15 accepts the second operation, the recording unit 16 records the updated contents of the evaluation image group 12, the performance evaluation results using the updated evaluation image group 12 for the current learning model 5, and A list of learning images 101 included in the current learning image group 11 , a list of each of the first evaluation images 103 and second evaluation images 104 included in the updated evaluation image group 12 , and the evaluation unit 14 A record is created in which the determination parameters 56 determined by the above are associated with each other. The recording unit 16 adds the created record to the end of the history information 125.

このようにして、受付部15が受け付けた操作に関する履歴が履歴情報125に蓄積される。 In this way, the history of operations accepted by the reception unit 15 is accumulated in the history information 125.

(C-5.出力部)
出力部17は、ユーザ入力に応じて、記録部16によって記録された履歴情報125を出力する。具体的には、出力部17は、入力装置7に履歴情報125の出力指示が入力されると、履歴情報125を示す画面を表示装置6に表示させる。
(C-5. Output section)
The output unit 17 outputs the history information 125 recorded by the recording unit 16 in response to user input. Specifically, when an instruction to output the history information 125 is input to the input device 7, the output unit 17 causes the display device 6 to display a screen showing the history information 125.

図13は、履歴情報を示す画面の一例を示す図である。図13に例示される画面80は、例えば図12に示す履歴情報125に基づいて作成される。画面80は、出力部17によって表示装置6に表示される。 FIG. 13 is a diagram showing an example of a screen showing history information. The screen 80 illustrated in FIG. 13 is created, for example, based on the history information 125 illustrated in FIG. 12. Screen 80 is displayed on display device 6 by output unit 17 .

画面80は、操作履歴テーブル81と、学習画像リスト83と、不良品画像リスト84と、良品画像リスト85と、領域86と、表示欄87とを含む。 The screen 80 includes an operation history table 81 , a learning image list 83 , a defective product image list 84 , a non-defective product image list 85 , an area 86 , and a display field 87 .

操作履歴テーブル81は、操作ごとに、操作内容と、学習モデル5の性能の評価結果と、評価部14によって決定された判定パラメータ56とを示すテーブルである。操作履歴テーブル81は、例えば図12に示す履歴情報125を用いて作成される。 The operation history table 81 is a table showing, for each operation, the operation details, the performance evaluation result of the learning model 5, and the determination parameter 56 determined by the evaluation unit 14. The operation history table 81 is created using, for example, the history information 125 shown in FIG. 12.

表示欄87には、判定パラメータ56を決定するために設定された許容見逃し率が表示される。 In the display field 87, the allowable missed rate set for determining the determination parameter 56 is displayed.

図13に例示される画面80では、学習モデル5の性能の評価結果として、「見逃し率」および「見過ぎ率」が表示されている。出力部17は、操作履歴テーブル81において、「見逃し率」が許容見逃し率を超えているレコードの表示形式を他のレコードと異ならせることが好ましい。これにより、ユーザに対して注意を促すことができる。 On the screen 80 illustrated in FIG. 13, "overlook rate" and "overlook rate" are displayed as the evaluation results of the performance of the learning model 5. It is preferable that the output unit 17 makes the display format of records whose "miss rate" exceeds the allowable missed rate different from other records in the operation history table 81. Thereby, it is possible to call attention to the user.

操作履歴テーブル81には、1つの操作(以下、「対象操作」と称する。)を選択するためのカーソル82が表示される。カーソル82は、入力装置7への入力に応じて移動する。 The operation history table 81 displays a cursor 82 for selecting one operation (hereinafter referred to as "target operation"). The cursor 82 moves according to input to the input device 7.

学習画像リスト83は、カーソル82によって選択されている対象操作が実行された直後の学習用画像グループ11に含まれる学習用画像101の一覧を示す。学習画像リスト83は、図12に示す履歴情報125における、対象操作に対応するレコードの「学習用画像グループ」のフィールドに基づいて作成される。 The learning image list 83 shows a list of the learning images 101 included in the learning image group 11 immediately after the target operation selected by the cursor 82 is performed. The learning image list 83 is created based on the "learning image group" field of the record corresponding to the target operation in the history information 125 shown in FIG. 12.

不良品画像リスト84は、カーソル82によって選択されている対象操作が実行された直後の評価用画像グループ12に含まれる第2評価用画像104の一覧を示す。不良品画像リスト84は、図12に示す履歴情報125における、対象操作に対応するレコードの「第2評価用画像」のフィールドに基づいて作成される。 The defective product image list 84 shows a list of the second evaluation images 104 included in the evaluation image group 12 immediately after the target operation selected by the cursor 82 is performed. The defective product image list 84 is created based on the "second evaluation image" field of the record corresponding to the target operation in the history information 125 shown in FIG. 12.

良品画像リスト85は、カーソル82によって選択されている対象操作が実行された直後の評価用画像グループ12に含まれる第1評価用画像103の一覧を示す。良品画像リスト85は、図12に示す履歴情報125における、対象操作に対応するレコードの「第1評価用画像」のフィールドに基づいて作成される。 The non-defective image list 85 shows a list of the first evaluation images 103 included in the evaluation image group 12 immediately after the target operation selected by the cursor 82 is performed. The non-defective image list 85 is created based on the "first evaluation image" field of the record corresponding to the target operation in the history information 125 shown in FIG.

不良品画像リスト84および良品画像リスト85には、各画像について、当該画像に写るワークWの良否の判定結果が表示される。なお、不良品画像リスト84において、「OK」は、ワークWが不良品であると判定されたことを示し、「見逃し」は、ワークWが良品であると判定されたことを示す。良品画像リスト85において、「OK」は、ワークWが良品であると判定されたことを示し、「見過ぎ」は、ワークWが不良品であると判定されたことを示す。 The defective product image list 84 and the non-defective product image list 85 display, for each image, the determination result of the quality of the workpiece W shown in the image. In the defective product image list 84, "OK" indicates that the workpiece W has been determined to be a defective product, and "missed" indicates that the workpiece W has been determined to be a non-defective product. In the non-defective image list 85, "OK" indicates that the workpiece W has been determined to be a non-defective product, and "overlooked" indicates that the workpiece W has been determined to be a defective product.

領域86には、学習画像リスト83、不良品画像リスト84および良品画像リスト85から選択された1つの画像が表示される。 In the area 86, one image selected from the learning image list 83, the defective product image list 84, and the non-defective product image list 85 is displayed.

図14は、履歴情報を示す画面の別の例を示す図である。図14に例示される画面90は、例えば図11または図12に示す履歴情報125に基づいて作成される。画面90は、出力部17によって表示装置6に表示される。なお、入力装置7への入力に応じて、図13に示す画面80と図14に示す画面90とが切り替えられてもよい。 FIG. 14 is a diagram showing another example of a screen showing history information. The screen 90 illustrated in FIG. 14 is created based on the history information 125 illustrated in FIG. 11 or 12, for example. Screen 90 is displayed on display device 6 by output unit 17 . Note that the screen 80 shown in FIG. 13 and the screen 90 shown in FIG. 14 may be switched depending on the input to the input device 7.

画面90は、操作履歴グラフ91と、表示欄93~95とを含む。操作履歴グラフ91は、学習モデル5の性能の評価結果と学習用画像グループ11に含まれる学習用画像101の枚数との変化を示すグラフである。 Screen 90 includes an operation history graph 91 and display fields 93-95. The operation history graph 91 is a graph showing changes in the performance evaluation result of the learning model 5 and the number of learning images 101 included in the learning image group 11.

操作履歴グラフ91には、1つの操作(以下、「対象操作」と称する。)を選択するためのカーソル92が表示される。カーソル92は、入力装置7への入力に応じて移動する。 The operation history graph 91 displays a cursor 92 for selecting one operation (hereinafter referred to as "target operation"). The cursor 92 moves according to input to the input device 7.

表示欄93には、カーソル92によって選択されている対象操作の内容が表示される。表示欄93に表示される内容は、図12または図13に示す履歴情報125における、対象操作に対応するレコードの「操作内容」のフィールドに対応する。 The display field 93 displays the contents of the target operation selected by the cursor 92. The content displayed in the display column 93 corresponds to the "operation content" field of the record corresponding to the target operation in the history information 125 shown in FIG. 12 or 13.

表示欄94には、カーソル92によって選択されている対象操作が実行された直後における、学習モデル5の性能の評価結果と学習用画像グループ11に含まれる学習用画像101の枚数とが表示される。表示欄94に表示される評価結果は、図12または図13に示す履歴情報125における、対象操作に対応するレコードの「性能の評価結果」のフィールドに対応する。表示欄94に表示される学習用画像101の枚数は、図12に示す履歴情報125における、対象操作に対応するレコードの「学習枚数」のフィールドに対応する。あるいは、表示欄94に表示される学習用画像101の枚数は、図13に示す履歴情報125における、対象操作に対応するレコードの「学習用画像グループ」フィールドに基づいて算出される。 The display field 94 displays the performance evaluation result of the learning model 5 and the number of learning images 101 included in the learning image group 11 immediately after the target operation selected by the cursor 92 is executed. . The evaluation result displayed in the display field 94 corresponds to the "performance evaluation result" field of the record corresponding to the target operation in the history information 125 shown in FIG. 12 or 13. The number of learning images 101 displayed in the display field 94 corresponds to the "number of learning images" field of the record corresponding to the target operation in the history information 125 shown in FIG. Alternatively, the number of learning images 101 displayed in the display field 94 is calculated based on the "learning image group" field of the record corresponding to the target operation in the history information 125 shown in FIG.

表示欄95には、判定パラメータ56を決定するために設定される許容見逃し率が表示される。 In the display column 95, the allowable missed rate set for determining the determination parameter 56 is displayed.

ユーザは、図13に示す画面80または図14に示す画面90を見ることにより、過去に実行した操作による学習モデルの性能の評価結果の変化を把握できる。 By looking at the screen 80 shown in FIG. 13 or the screen 90 shown in FIG. 14, the user can grasp changes in the evaluation results of the performance of the learning model due to operations performed in the past.

なお、図13に示す画面80または図14に示す画面90には、画面を閉じるためのボタン89が含まれる。ボタン89が押下されると、出力部17は、画面を閉じる。 Note that the screen 80 shown in FIG. 13 or the screen 90 shown in FIG. 14 includes a button 89 for closing the screen. When button 89 is pressed, output unit 17 closes the screen.

(C-6.設定部)
設定部18は、ユーザからの指示に応じて、指定された学習モデル5を判定装置2に設定する。
(C-6. Setting section)
The setting unit 18 sets the specified learning model 5 in the determination device 2 according to instructions from the user.

設定部18は、例えば図13に示す画面80または図14に示す画面90に含まれるロールバック実行ボタン88が押下されたことに応じて、指定された学習モデル5を示すモデルデータ123を判定装置2に転送する。具体的には、図13に示す画面80に含まれるロールバック実行ボタン88が押下された場合、設定部18は、カーソル82によって選択された対象操作が実行された直後の学習モデル5に対応するモデルデータ123を判定装置2に転送する。同様に、図14に示す画面90に含まれるロールバック実行ボタン88が押下された場合、設定部18は、カーソル92によって選択された対象操作が実行された直後の学習モデル5を定義付けるモデルデータ123を判定装置2に転送する。 For example, in response to a rollback execution button 88 included in the screen 80 shown in FIG. 13 or the screen 90 shown in FIG. Transfer to 2. Specifically, when the rollback execution button 88 included in the screen 80 shown in FIG. The model data 123 is transferred to the determination device 2. Similarly, when the rollback execution button 88 included in the screen 90 shown in FIG. is transferred to the determination device 2.

記憶部120が図11に示す履歴情報125を記憶している場合、設定部18は、履歴情報125における、対象操作に対応するレコードの「学習モデル」フィールドに示されるモデルデータ123を判定装置2に転送すればよい。 When the storage unit 120 stores the history information 125 shown in FIG. You can transfer it to

記憶部120が図12に示す履歴情報125を記憶している場合、設定部18は、履歴情報125における、対象操作に対応するレコードの「学習用画像グループ」フィールドに示される学習用画像101を用いた機械学習を学習部13に指示する。設定部18は、学習部13によって生成された学習モデル5を定義付けるモデルデータ123を判定装置2に転送すればよい。 When the storage unit 120 stores the history information 125 shown in FIG. The machine learning used is instructed to the learning unit 13. The setting unit 18 may transfer the model data 123 that defines the learning model 5 generated by the learning unit 13 to the determination device 2 .

これにより、ユーザは、図13に示す画面80または図14に示す画面90を見ながら、性能の評価結果が優れている学習モデル5を判定装置2に設定できる。 Thereby, the user can set the learning model 5 having an excellent performance evaluation result to the determination device 2 while viewing the screen 80 shown in FIG. 13 or the screen 90 shown in FIG. 14.

<D.判定装置のソフトウェア構成例>
次に、図15を用いて、本実施形態に係る判定装置2のソフトウェア構成の一例について説明する。図15は、判定装置のソフトウェア構成の一例を模式的に例示する図である。
<D. Example of software configuration of determination device>
Next, an example of the software configuration of the determination device 2 according to this embodiment will be described using FIG. 15. FIG. 15 is a diagram schematically illustrating an example of the software configuration of the determination device.

図15に示されるように、判定装置2は、取得部21と、生成部22と、判定部23と、出力部24とをソフトウェアモジュールとして備える。各ソフトウェアモジュールは、CPU210が判定プログラム221に含まれる命令を解釈および実行することにより実現される。 As shown in FIG. 15, the determination device 2 includes an acquisition section 21, a generation section 22, a determination section 23, and an output section 24 as software modules. Each software module is realized by the CPU 210 interpreting and executing instructions included in the determination program 221.

取得部21は、ワークWを観測することで得られた観測画像201を取得する。観測画像201にはワークWが写る。 The acquisition unit 21 acquires an observation image 201 obtained by observing the workpiece W. The workpiece W appears in the observation image 201.

生成部22は、学習装置1から転送されたモデルデータ123を参照して、学習モデル5の設定を行う。上述したように、学習モデル5は、画像が入力されると、入力された画像を特徴量に変換し、変換により得られた特徴量から入力された画像を復元した画像を生成するように構成されている。生成部22は、取得された観測画像201を学習モデル5に入力することで、観測画像201を復元した復元観測画像203を生成する。 The generation unit 22 refers to the model data 123 transferred from the learning device 1 and sets the learning model 5. As described above, the learning model 5 is configured to, when an image is input, convert the input image into a feature amount, and generate an image by restoring the input image from the feature amount obtained by the conversion. has been done. The generation unit 22 generates a restored observation image 203 by restoring the observation image 201 by inputting the acquired observation image 201 into the learning model 5 .

判定部23は、観測画像201と復元観測画像203との間の差分に基づいて、観測画像201に写るワークWが良品か否かを判定する。本実施形態では、判定部23は、評価部14と同様の方法に従って、ワークWの良否判定を行なう。すなわち、判定部23は、観測画像201と復元観測画像203との差分を算出することで、観測画像201と復元観測画像203との間の差分を示す差分画像205を生成する。判定部23は、差分画像205に対して学習装置1から転送された判定パラメータ56(閾値57,58)を適用することにより、検出画像I14を生成する(図7参照)。そして、判定部23は、検出画像I14に白色画素の領域が存在するか否かに応じて、観測画像201に写るワークWに欠陥が存在するか否かを判定する。判定部23は、ワークWに欠陥が存在する場合にワークWを不良品と判定し、ワークWに欠陥が存在しない場合にワークWを良品と判定する。 The determining unit 23 determines whether the workpiece W shown in the observed image 201 is a good product based on the difference between the observed image 201 and the restored observed image 203. In the present embodiment, the determination unit 23 determines the quality of the work W according to the same method as the evaluation unit 14. That is, the determination unit 23 generates a difference image 205 indicating the difference between the observed image 201 and the restored observed image 203 by calculating the difference between the observed image 201 and the restored observed image 203. The determination unit 23 generates the detected image I14 by applying the determination parameters 56 (threshold values 57, 58) transferred from the learning device 1 to the difference image 205 (see FIG. 7). Then, the determining unit 23 determines whether a defect exists in the workpiece W shown in the observed image 201, depending on whether a white pixel area exists in the detected image I14. The determination unit 23 determines that the workpiece W is defective when there is a defect in the workpiece W, and determines that the workpiece W is a non-defective item when there is no defect in the workpiece W.

出力部24は、判定部23の判定結果、すなわち、ワークWの良否を判定した結果に関する情報を出力する。 The output unit 24 outputs information regarding the determination result of the determination unit 23, that is, the result of determining the quality of the workpiece W.

<E.学習装置の処理の流れ>
図16を参照して、学習装置1の処理の流れについて説明する。図16は、学習装置の処理の流れの一例を示すフローチャートである。
<E. Learning device processing flow>
The flow of processing of the learning device 1 will be described with reference to FIG. 16. FIG. 16 is a flowchart showing an example of the processing flow of the learning device.

まず、学習装置1のCPU110は、機械学習に関する操作を受け付けたか否かを判定する(ステップS1)。操作を受け付けていない場合(ステップS1でNO)、処理はステップS1に戻る。 First, the CPU 110 of the learning device 1 determines whether an operation related to machine learning has been received (step S1). If no operation has been accepted (NO in step S1), the process returns to step S1.

操作を受け付けた場合(ステップS1でYES)、CPU110は、受け付けた操作に応じてデータの更新を行なう(ステップS2)。例えば、第1操作を受け付けた場合、CPU110は、学習用画像グループ11を更新する。第2操作を受け付けた場合、CPU110は、評価用画像グループ12を更新する。 If the operation is accepted (YES in step S1), the CPU 110 updates data according to the accepted operation (step S2). For example, when the first operation is received, the CPU 110 updates the learning image group 11. If the second operation is accepted, the CPU 110 updates the evaluation image group 12.

次に、CPU110は、学習用画像グループ11を用いた機械学習を行なうことにより、学習モデル5を生成する(ステップS3)。続けて、CPU110は、生成された学習モデル5の性能を評価する(ステップS4)。CPU110は、受け付けた操作の内容と、学習モデル5の性能の評価結果とを対応付けて記録する(ステップS5)。 Next, the CPU 110 generates the learning model 5 by performing machine learning using the learning image group 11 (step S3). Subsequently, the CPU 110 evaluates the performance of the generated learning model 5 (step S4). The CPU 110 associates and records the content of the received operation and the evaluation result of the performance of the learning model 5 (step S5).

次に、CPU110は、記録部16によって記録された履歴情報125の出力指示を受けたか否かを判定する(ステップS6)。出力指示を受けていない場合(ステップS6でNO)、処理はステップS1に戻る。 Next, the CPU 110 determines whether an instruction to output the history information 125 recorded by the recording unit 16 has been received (step S6). If the output instruction has not been received (NO in step S6), the process returns to step S1.

出力指示を受けた場合(ステップS6でYES)、CPU110は、履歴情報125を出力する(ステップS7)。具体的には、CPU110は、履歴情報125を示す画面を表示装置6に表示させる。 When receiving an output instruction (YES in step S6), CPU 110 outputs history information 125 (step S7). Specifically, CPU 110 causes display device 6 to display a screen showing history information 125.

次に、CPU110は、画面表示の終了指示を受けたか否かを判定する(ステップS8)。終了指示を受けた場合(ステップS8でYES)、処理はステップS1に戻る。 Next, the CPU 110 determines whether an instruction to end the screen display has been received (step S8). If the termination instruction is received (YES in step S8), the process returns to step S1.

終了指示を受けていない場合(ステップS8でNO)、CPU110は、ロールバック実行の指示を受けたか否かを判定する(ステップS9)。ロールバック実行の指示を受けていない場合(ステップS9でNO)、処理はステップS8に戻る。 If the termination instruction has not been received (NO in step S8), the CPU 110 determines whether or not an instruction to perform rollback has been received (step S9). If the rollback execution instruction has not been received (NO in step S9), the process returns to step S8.

ロールバック実行の指示を受けた場合(ステップS9でYES)、CPU110は、指定された対象操作が実行された直後の学習モデル5を判定装置2に設定する(ステップS10)。具体的には、CPU110は、学習モデル5に対応するモデルデータ123を判定装置2に転送する。ステップ10の後、処理はステップS1に戻る。 When receiving the instruction to perform rollback (YES in step S9), the CPU 110 sets the learning model 5 immediately after the specified target operation was executed in the determination device 2 (step S10). Specifically, the CPU 110 transfers model data 123 corresponding to the learning model 5 to the determination device 2. After step 10, the process returns to step S1.

<F.実験例>
次に、本開示の実験例について説明する。汎用のコンピュータを利用して、以下の実験条件に従って、学習モデルを構築する実験を行った。
<F. Experimental example>
Next, an experimental example of the present disclosure will be described. Using a general-purpose computer, we conducted an experiment to construct a learning model according to the following experimental conditions.

(実験条件)
・立ち上げ段階において学習用画像グループに含まれる学習用画像の数:10
・追加学習の回数:7回
・第1評価用画像の数:42
・第2評価用画像の数:3445
・各画像のサイズ:350×350
・各画像の画素値:256階調
・差分画像の画素値の範囲:0~255
・二値化の閾値(閾値57)の値:10~70
・面積に対する閾値(閾値58)の値(画素数):10~1000
・許容見逃し率:0%。
(Experimental conditions)
・Number of learning images included in the learning image group at the startup stage: 10
・Number of additional learning: 7 times ・Number of images for first evaluation: 42
・Number of images for second evaluation: 3445
・Size of each image: 350 x 350
・Pixel value of each image: 256 gradations ・Pixel value range of difference image: 0 to 255
・Binarization threshold (threshold 57) value: 10 to 70
・Value of threshold (threshold 58) for area (number of pixels): 10 to 1000
・Tolerable missed rate: 0%.

図17は、実験例により機械学習の処理を繰り返す過程で構築された学習モデルの性能の評価結果を示す図である。「追加学習した画像の学習効果評価値」のフィールドは、学習用画像グループに追加された学習用画像に対する学習効果評価値を示す。「性能評価値」のフィールドは、学習モデルの性能の評価結果である「見逃し率」および「見過ぎ率」を示す。「判定パラメータ」のフィールドは、評価部14によって決定された判定パラメータ(閾値57,58)の最適な値を示す。 FIG. 17 is a diagram showing evaluation results of the performance of a learning model constructed in the process of repeating machine learning processing according to an experimental example. The field "Learning effect evaluation value of additionally learned image" indicates the learning effect evaluation value for the learning image added to the learning image group. The "performance evaluation value" field indicates the "miss rate" and "overlook rate" which are the performance evaluation results of the learning model. The “determination parameter” field indicates the optimal value of the determination parameter (threshold values 57, 58) determined by the evaluation unit 14.

図17に示されるとおり、第1回目から第5回目までは、学習用画像を追加することにより、学習モデルの性能が向上している。しかしながら、第6回目以降では、学習用画像を追加しても、必ずしも性能が向上するわけではない。そのため、複数回繰り返し機械学習を実行し、最も性能の高い学習モデルを採用することが好ましい。 As shown in FIG. 17, the performance of the learning model is improved from the first to the fifth times by adding learning images. However, after the 6th time, even if learning images are added, the performance does not necessarily improve. Therefore, it is preferable to repeat machine learning multiple times and adopt the learning model with the highest performance.

本開示によれば、操作ごとに学習モデルの性能の評価結果が記録され、記録された履歴情報が出力される。これにより、ユーザは、どの操作のタイミングにおいて学習モデルが最適になったかを容易に把握できる。その結果、判定装置に設定すべき学習モデルを容易に調整することができる。 According to the present disclosure, the evaluation result of the performance of the learning model is recorded for each operation, and the recorded history information is output. Thereby, the user can easily understand at which timing of the operation the learning model becomes optimal. As a result, the learning model to be set in the determination device can be easily adjusted.

<G.作用・効果>
以上のように、本実施の形態の学習装置1は、学習部13と、評価部14と、受付部15と、記録部16と、出力部17とを備える。学習部13は、ワークWの写る1以上の学習用画像101を含む学習用画像グループ11を用いた機械学習を行なうことにより、ワークWの属性を判定するために利用される学習モデル5を生成する。評価部14は、評価用画像グループ12に含まれる1以上の評価用画像102を学習モデル5に入力することにより、学習モデル5の性能の評価を行なう。受付部15は、学習用画像グループ11を更新する第1操作を受け付ける。記録部16は、第1操作ごとに、第1操作の内容と、更新後の学習用画像グループ11を用いて生成された学習モデル5に対する評価結果とを対応付けて記録する。出力部17は、記録部16によって記録された履歴情報125を出力する。
<G. Action/Effect>
As described above, the learning device 1 of this embodiment includes the learning section 13, the evaluation section 14, the receiving section 15, the recording section 16, and the output section 17. The learning unit 13 generates a learning model 5 used to determine the attributes of the workpiece W by performing machine learning using a learning image group 11 including one or more learning images 101 in which the workpiece W is captured. do. The evaluation unit 14 evaluates the performance of the learning model 5 by inputting one or more evaluation images 102 included in the evaluation image group 12 to the learning model 5. The reception unit 15 receives a first operation for updating the learning image group 11. The recording unit 16 records, for each first operation, the content of the first operation and the evaluation result for the learning model 5 generated using the updated learning image group 11 in association with each other. The output unit 17 outputs the history information 125 recorded by the recording unit 16.

上記の構成によれば、ユーザは、記録部16によって記録された履歴情報125を確認することにより、過去に実施された複数の第1操作それぞれに対応する学習モデル5のうち、どのタイミングの学習モデル5の性能が最も高いか容易に把握できる。これにより、ユーザは、第1操作ごとの学習モデル5の性能を確認しながら、学習モデル5を適宜調整できる。 According to the above configuration, by checking the history information 125 recorded by the recording unit 16, the user can determine which timing of learning among the learning models 5 corresponding to each of a plurality of first operations performed in the past. It is easy to understand whether Model 5 has the highest performance. Thereby, the user can adjust the learning model 5 as appropriate while checking the performance of the learning model 5 for each first operation.

学習モデル5は、ワークWの写る画像が入力され、ワークWの良否を判定するための出力情報を出力する。評価用画像グループ12は、良品であるワークWの写る1以上の第1評価用画像103と、不良品であるワークWの写る1以上の第2評価用画像104とを含む。評価部14は、評価結果として、第1評価値と第2評価値とを算出する。第1評価値は、1以上の第1評価用画像103のうち、学習モデル5に入力することにより得られる出力情報に基づいてワークWが不良品と判定された第1評価用画像103の第1割合に応じた値である。第2評価値は、1以上の第2評価用画像104のうち、学習モデル5に入力することにより得られる出力情報に基づいてワークWが良品と判定された第2評価用画像の第2割合に応じた値である。 The learning model 5 receives an image of the workpiece W as input, and outputs output information for determining the quality of the workpiece W. The evaluation image group 12 includes one or more first evaluation images 103 in which a workpiece W that is non-defective is captured, and one or more second evaluation images 104 in which a workpiece W that is a defective product is captured. The evaluation unit 14 calculates a first evaluation value and a second evaluation value as evaluation results. The first evaluation value is the first evaluation value of the first evaluation image 103 in which the workpiece W is determined to be a defective product based on the output information obtained by inputting it to the learning model 5, among the one or more first evaluation images 103. It is a value according to 1 percentage. The second evaluation value is a second percentage of the second evaluation images in which the workpiece W is determined to be a good product based on output information obtained by inputting it to the learning model 5 among the one or more second evaluation images 104. The value corresponds to

上記の構成によれば、ユーザは、第1評価値を確認することにより第1割合を把握でき、第2評価値を確認することにより第2割合を把握できる。これにより、ユーザは、第1割合および第2割合が所望の範囲内になるように、学習モデル5を調整できる。 According to the above configuration, the user can understand the first ratio by checking the first evaluation value, and can understand the second ratio by checking the second evaluation value. Thereby, the user can adjust the learning model 5 so that the first ratio and the second ratio fall within a desired range.

出力情報を用いたワークWの良否の判定は、出力情報が判定条件を満たすか否かに応じて実施される。評価部14は、第2割合が予め定められた許容見逃し率以下となるように判定条件を決定する。 Determination of the quality of the workpiece W using the output information is performed depending on whether the output information satisfies the determination conditions. The evaluation unit 14 determines the determination condition so that the second ratio is equal to or less than a predetermined allowable missed rate.

製造ラインでは、不良品が良品として出荷されることをなるべく回避する必要がある。上記の構成によれば、第2割合が予め定められた許容見逃し率以下となるような判定条件の下で実施された良否の判定結果に基づいて、学習モデル5の性能の評価が行なわれる。これにより、第2割合が許容見逃し率以下となる判定条件下において、ユーザは、性能の高い学習モデル5に調整できる。 On the production line, it is necessary to avoid shipping defective products as non-defective products as much as possible. According to the above configuration, the performance of the learning model 5 is evaluated based on the result of the pass/fail determination carried out under the determination conditions such that the second ratio is equal to or less than the predetermined allowable missed rate. Thereby, the user can adjust the learning model 5 to have high performance under the determination condition that the second ratio is equal to or less than the allowable missed rate.

学習装置1は、ワークWの属性を判定する判定装置2に学習モデル5を設定する設定部18をさらに備える。記録部16は、第1操作ごとに、更新後の学習用画像グループ11をさらに記録する。設定部18は、履歴情報125の中から指定された第1操作に対応して記録された学習用画像グループ11を用いて生成された学習モデル5を、判定装置2に設定する。 The learning device 1 further includes a setting unit 18 that sets the learning model 5 in the determination device 2 that determines the attributes of the workpiece W. The recording unit 16 further records the updated learning image group 11 for each first operation. The setting unit 18 sets the learning model 5, which is generated using the learning image group 11 recorded in response to the first operation specified from the history information 125, in the determination device 2.

あるいは、記録部16は、第1操作ごとに、更新後の学習用画像グループ11を用いて生成された学習モデル5をさらに記録する。設定部18は、履歴情報125の中から指定された第1操作に対応して記録された学習モデル5を判定装置2に設定する。 Alternatively, the recording unit 16 further records the learning model 5 generated using the updated learning image group 11 for each first operation. The setting unit 18 sets the learning model 5 recorded in correspondence to the first operation specified from the history information 125 in the determination device 2 .

上記の構成によれば、ユーザは、履歴情報を見ながら、性能の高い学習モデル5を判定装置2に容易に設定できる。 According to the above configuration, the user can easily set the learning model 5 with high performance to the determination device 2 while viewing the history information.

受付部15は、評価用画像グループ12を更新する第2操作をさらに受け付ける。記録部16は、さらに、第2操作ごとに、第2操作の内容と、更新後の評価用画像グループ12を用いた評価の結果とを対応付けて記録する。 The receiving unit 15 further receives a second operation for updating the evaluation image group 12. The recording unit 16 further records, for each second operation, the content of the second operation and the result of the evaluation using the updated evaluation image group 12 in association with each other.

上記の構成によれば、ユーザは、評価用画像グループ12を更新したときの学習モデル5の性能の評価結果の変化を確認できる。その結果、ユーザは、評価結果を確認することで評価用画像グループ12の最適化を行なうことができる。 According to the above configuration, the user can check the change in the evaluation result of the performance of the learning model 5 when the evaluation image group 12 is updated. As a result, the user can optimize the evaluation image group 12 by checking the evaluation results.

出力部17は、第1操作ごとの第1操作の内容と評価結果との一覧表を表示装置6に表示させる。これにより、ユーザは、一覧表を見ることにより、操作に応じた学習モデル5の性能の変化を確認できる。 The output unit 17 causes the display device 6 to display a list of the contents of the first operation and the evaluation results for each first operation. Thereby, the user can check the change in performance of the learning model 5 according to the operation by looking at the list.

あるいは、評価部14は、学習モデル5の性能を示す評価値(例えば、第1評価値および第2評価値)を評価結果として算出する。出力部17は、第1操作ごとの評価値の推移を示すグラフを表示装置6に表示させる。これにより、ユーザは、グラフを見ることにより、操作に応じた学習モデル5の性能の変化を確認しやすくなる。 Alternatively, the evaluation unit 14 calculates evaluation values (for example, a first evaluation value and a second evaluation value) indicating the performance of the learning model 5 as the evaluation result. The output unit 17 causes the display device 6 to display a graph showing the transition of the evaluation value for each first operation. This makes it easier for the user to check changes in the performance of the learning model 5 depending on the operation by looking at the graph.

<H.変形例>
(H-1.変形例1)
上記の説明では、受付部15は、第1操作および第2操作を受け付ける。受付部15は、さらに、学習モデル5を生成するために用いられるモデル生成用パラメータを更新する第3操作を受け付けてもよい。
<H. Modified example>
(H-1. Modification 1)
In the above description, the reception unit 15 receives the first operation and the second operation. The reception unit 15 may further receive a third operation for updating model generation parameters used to generate the learning model 5.

受付部15が第3操作を受け付けると、記録部16は、モデル生成用パラメータの更新内容と、更新後のモデル生成用パラメータを用いて生成された学習モデル5の性能の評価結果と、当該学習モデル5を定義付けるモデルデータ123と、現状の学習用画像グループ11に含まれる学習用画像101の枚数と、評価部14によって決定された判定パラメータ56とを対応付けたレコードを作成する。 When the receiving unit 15 accepts the third operation, the recording unit 16 records the update contents of the model generation parameters, the performance evaluation result of the learning model 5 generated using the updated model generation parameters, and the learning data. A record is created in which the model data 123 that defines the model 5, the number of learning images 101 included in the current learning image group 11, and the determination parameter 56 determined by the evaluation unit 14 are associated.

あるいは、記録部16は、モデル生成用パラメータの更新内容と、更新後のモデル生成用パラメータのセットと、更新後のモデル生成用パラメータを用いて生成された学習モデル5の性能の評価結果と、現状の学習用画像グループ11に含まれる学習用画像101の一覧と、現状の評価用画像グループ12に含まれる第1評価用画像103および第2評価用画像104それぞれの一覧と、評価部14によって決定された判定パラメータ56とを対応付けたレコードを作成してもよい。 Alternatively, the recording unit 16 stores the updated content of the model generation parameters, the updated set of model generation parameters, and the performance evaluation result of the learning model 5 generated using the updated model generation parameters, A list of learning images 101 included in the current learning image group 11 , a list of each of the first evaluation images 103 and second evaluation images 104 included in the current evaluation image group 12 , and the evaluation unit 14 A record may be created in which the determined determination parameters 56 are associated with each other.

変形例1によれば、ユーザは、モデル生成用パラメータを更新したときの学習モデル5の性能の評価結果の変化を確認できる。その結果、ユーザは、評価結果を確認することでモデル生成用パラメータの最適化を行なうことができる。 According to the first modification, the user can check changes in the evaluation results of the performance of the learning model 5 when the model generation parameters are updated. As a result, the user can optimize the model generation parameters by checking the evaluation results.

(H-2.変形例2)
学習部13は、各学習用画像101を複数のパッチ画像に分割してもよい。分割方法及びパッチ画像の個数は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、学習部13は、縦方向及び横方向それぞれに指定された数で等分に学習用画像101を分割してもよい。
(H-2. Modification 2)
The learning unit 13 may divide each learning image 101 into a plurality of patch images. The division method and the number of patch images are not particularly limited and may be determined as appropriate depending on the embodiment. For example, the learning unit 13 may equally divide the learning image 101 into specified numbers in both the vertical and horizontal directions.

学習部13は、上記機械学習の処理により、パッチ画像ごとに学習モデル5を生成してもよい。すなわち、学習部13は、パッチ画像を特徴量に変換し、変換により得られた特徴量から対応するパッチ画像に適合する画像を復元するように訓練された学習モデル5を構築する。これにより、学習モデル5が、パッチ画像ごとに生成される。 The learning unit 13 may generate the learning model 5 for each patch image through the machine learning process described above. That is, the learning unit 13 constructs a learning model 5 trained to convert a patch image into a feature amount, and restore an image suitable for the corresponding patch image from the feature amount obtained by the conversion. As a result, a learning model 5 is generated for each patch image.

パッチ画像ごとの学習モデル5が生成された場合、評価部14は、各評価用画像102を複数のパッチ画像に分割する。評価部14は、パッチ画像ごとに、対応する学習モデル5を利用して、パッチ画像に対応する復元画像を生成する。評価部14は、各評価用画像102について、複数のパッチ画像の各々と対応する復元画像との差分の程度に基づいて、当該評価用画像に写っているワークWの良否を判定する。評価部14は、判定結果に基づいて学習モデル5の性能の評価を行なう。 When the learning model 5 for each patch image is generated, the evaluation unit 14 divides each evaluation image 102 into a plurality of patch images. The evaluation unit 14 uses the corresponding learning model 5 for each patch image to generate a restored image corresponding to the patch image. The evaluation unit 14 determines the quality of the workpiece W shown in each evaluation image 102 based on the degree of difference between each of the plurality of patch images and the corresponding restored image. The evaluation unit 14 evaluates the performance of the learning model 5 based on the determination result.

§3 付記
以上のように、本実施の形態は以下のような開示を含む。
§3 Supplementary notes As described above, this embodiment includes the following disclosures.

(構成1)
学習装置(1)であって、
対象物(W)の写る1以上の学習用画像(101)を含む学習用画像グループ(11)を用いた機械学習を行なうことにより、前記対象物(W)の属性を判定するために利用される学習モデル(5)を生成する学習部(13)と、
評価用画像グループ(12)に含まれる1以上の評価用画像(102,103,104)を前記学習モデル(5)に入力することにより、前記学習モデル(5)の性能の評価を行なう評価部(14)と、
前記学習用画像グループ(11)を更新する第1操作を受け付ける受付部(15)と、
前記第1操作ごとに、前記第1操作の内容と、更新後の前記学習用画像グループ(11)を用いて生成された前記学習モデル(5)に対する前記評価の結果とを対応付けて記録する記録部(16)と、
前記記録部(16)によって記録された履歴情報(125)を出力する出力部(17)とを備える、学習装置(1)。
(Configuration 1)
A learning device (1),
By performing machine learning using a learning image group (11) including one or more learning images (101) in which the target object (W) is captured, a learning unit (13) that generates a learning model (5);
an evaluation unit that evaluates the performance of the learning model (5) by inputting one or more evaluation images (102, 103, 104) included in the evaluation image group (12) to the learning model (5); (14) and
a reception unit (15) that receives a first operation for updating the learning image group (11);
For each of the first operations, the contents of the first operation and the results of the evaluation of the learning model (5) generated using the updated learning image group (11) are recorded in association with each other. a recording section (16);
A learning device (1) comprising an output section (17) that outputs history information (125) recorded by the recording section (16).

(構成2)
前記学習モデル(5)は、前記対象物(W)の写る画像が入力され、前記対象物(W)の良否を判定するための出力情報を出力し、
前記評価用画像グループ(12)は、良品である前記対象物(W)の写る1以上の第1評価用画像(103)と、不良品である前記対象物(W)の写る1以上の第2評価用画像(104)とを含み、
前記評価部(14)は、前記評価の結果として、
前記1以上の第1評価用画像(103)のうち、前記学習モデル(5)に入力することにより得られる前記出力情報に基づいて前記対象物(W)が不良品と判定された第1評価用画像(103)の第1割合に応じた値と、
前記1以上の第2評価用画像(104)のうち、前記学習モデル(5)に入力することにより得られる前記出力情報に基づいて前記対象物(W)が良品と判定された第2評価用画像(104)の第2割合に応じた値とを算出する、構成1に記載の学習装置(1)。
(Configuration 2)
The learning model (5) receives an image of the object (W) as input, outputs output information for determining the quality of the object (W),
The evaluation image group (12) includes one or more first evaluation images (103) in which the object (W) is a non-defective item, and one or more first evaluation images (103) in which the object (W) is a defective item. 2 evaluation images (104),
As a result of the evaluation, the evaluation unit (14)
A first evaluation in which the object (W) is determined to be a defective product based on the output information obtained by inputting it into the learning model (5) among the one or more first evaluation images (103). a value corresponding to the first ratio of the image for use (103),
Among the one or more images for second evaluation (104), the image for second evaluation in which the object (W) is determined to be a good product based on the output information obtained by inputting it to the learning model (5). The learning device (1) according to configuration 1, which calculates a value according to a second ratio of the image (104).

(構成3)
前記出力情報を用いた前記対象物(W)の良否の判定は、前記出力情報が判定条件を満たすか否かに応じて実施され、
前記評価部(14)は、前記第2割合が予め定められた閾値以下となるように前記判定条件を決定する、構成2に記載の学習装置(1)。
(Configuration 3)
The determination of the quality of the object (W) using the output information is carried out depending on whether the output information satisfies the determination condition,
The learning device (1) according to configuration 2, wherein the evaluation unit (14) determines the determination condition such that the second ratio is equal to or less than a predetermined threshold.

(構成4)
前記対象物(W)の属性を判定する判定装置(2)に前記学習モデル(5)を設定する設定部(18)をさらに備え、
前記記録部(16)は、前記第1操作ごとに、更新後の前記学習用画像グループ(11)をさらに記録し、
前記設定部(18)は、前記履歴情報(125)の中から指定された第1操作に対応して記録された前記学習用画像グループ(11)を用いて生成された前記学習モデル(5)を前記判定装置(2)に設定する、構成1から3のいずれかに学習装置(1)。
(Configuration 4)
further comprising a setting unit (18) that sets the learning model (5) to the determination device (2) that determines the attribute of the object (W),
The recording unit (16) further records the updated learning image group (11) for each of the first operations,
The setting unit (18) sets the learning model (5) generated using the learning image group (11) recorded in response to a first operation specified from the history information (125). The learning device (1) according to any one of configurations 1 to 3, wherein the determination device (2) is configured to set the following.

(構成5)
前記対象物(W)の属性を判定する判定装置(2)に前記学習モデル(5)を設定する設定部(18)をさらに備え、
前記記録部(16)は、前記第1操作ごとに、更新後の前記学習用画像グループ(11)を用いて生成された前記学習モデル(5)をさらに記録し、
前記設定部(18)は、前記履歴情報(125)の中から指定された第1操作に対応して記録された前記学習モデル(5)を前記判定装置(2)に設定する、構成1から3のいずれかに記載の学習装置(1)。
(Configuration 5)
further comprising a setting unit (18) that sets the learning model (5) to the determination device (2) that determines the attribute of the object (W),
The recording unit (16) further records the learning model (5) generated using the updated learning image group (11) for each of the first operations,
From configuration 1, the setting unit (18) sets the learning model (5) recorded in response to a first operation specified from the history information (125) in the determination device (2). 3. The learning device (1) according to any one of 3.

(構成6)
前記受付部(15)は、前記評価用画像グループ(12)を更新する第2操作をさらに受け付け、
前記記録部(16)は、さらに、前記第2操作ごとに、前記第2操作の内容と、更新後の前記評価用画像グループ(12)を用いた前記評価の結果とを対応付けて記録する、構成1から5のいずれかに記載の学習装置(1)。
(Configuration 6)
The reception unit (15) further receives a second operation for updating the evaluation image group (12),
The recording unit (16) further records, for each second operation, the content of the second operation and the result of the evaluation using the updated evaluation image group (12) in association with each other. , the learning device (1) according to any one of configurations 1 to 5.

(構成7)
前記学習部(13)は、モデル生成用パラメータを用いて前記学習モデル(5)を生成し、
前記受付部(15)は、前記モデル生成用パラメータを更新する第3操作をさらに受け付け、
前記記録部(16)は、さらに、前記第3操作ごとに、前記第3操作の内容と、更新後の前記モデル生成用パラメータを用いて生成された前記学習モデル(5)に対する前記評価の結果とを対応付けて記録する、構成1から6のいずれかに記載の学習装置(1)。
(Configuration 7)
The learning unit (13) generates the learning model (5) using model generation parameters,
The reception unit (15) further receives a third operation for updating the model generation parameters,
The recording unit (16) further records, for each third operation, the content of the third operation and the result of the evaluation of the learning model (5) generated using the updated model generation parameters. The learning device (1) according to any one of configurations 1 to 6, wherein the learning device (1) records information in association with each other.

(構成8)
前記出力部(17)は、前記第1操作ごとの前記第1操作の内容と前記評価の結果との一覧表を表示装置(6)に表示させる、構成1に記載の学習装置(1)。
(Configuration 8)
The learning device (1) according to configuration 1, wherein the output unit (17) causes a display device (6) to display a list of the content of the first operation and the evaluation result for each first operation.

(構成9)
前記評価部(14)は、前記学習モデル(5)の性能を示す評価値を前記評価の結果として算出し、
前記出力部(17)は、前記第1操作ごとの前記評価値の推移を示すグラフを表示装置(6)に表示させる、構成1に記載の学習装置。
(Configuration 9)
The evaluation unit (14) calculates an evaluation value indicating the performance of the learning model (5) as a result of the evaluation,
The learning device according to configuration 1, wherein the output unit (17) causes a display device (6) to display a graph showing the transition of the evaluation value for each of the first operations.

(構成10)
対象物(W)の写る1以上の学習用画像(101)を含む学習用画像グループ(11)を用いた機械学習を行なうことにより、前記対象物(W)の属性を判定するために利用される学習モデル(5)を生成するステップと、
評価用画像グループ(12)に含まれる1以上の評価用画像(102)を前記学習モデル(5)に入力することにより、前記学習モデル(5)の性能の評価を行なうステップと、
前記学習用画像グループ(11)を更新する操作を受け付けるステップと、
前記操作ごとに、前記操作の内容と、更新後の前記学習用画像グループ(11)を用いて生成された前記学習モデル(5)に対する前記評価の結果とを対応付けて記録するステップと、
記録された履歴情報(125)を出力するステップとを備える、学習方法。
(Configuration 10)
By performing machine learning using a learning image group (11) including one or more learning images (101) in which the target object (W) is captured, a step of generating a learning model (5);
evaluating the performance of the learning model (5) by inputting one or more evaluation images (102) included in the evaluation image group (12) to the learning model (5);
accepting an operation to update the learning image group (11);
For each of the operations, the content of the operation and the result of the evaluation of the learning model (5) generated using the updated learning image group (11) are recorded in association with each other;
A learning method comprising the step of outputting recorded history information (125).

(構成11)
構成10に記載の学習方法をコンピュータに実行させるプログラム。
(Configuration 11)
A program that causes a computer to execute the learning method according to configuration 10.

本発明の実施の形態について説明したが、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 Although the embodiments of the present invention have been described, the embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims, and it is intended that all changes within the meaning and range equivalent to the claims are included.

1 学習装置、2 判定装置、3 カメラ、5 学習モデル、6,9 表示装置、7,8 入力装置、11 学習用画像グループ、12 評価用画像グループ、13 学習部、14 評価部、15 受付部、16 記録部、17 出力部、18 設定部、21 取得部、22 生成部、23 判定部、24 出力部、51 入力層、52 中間層、53 出力層、55 判定パラメータ候補、56 判定パラメータ、57,58 閾値、60,70,80,90 画面、61,71 候補リスト、62,83 学習画像リスト、63,74,86 領域、64,75a,75b 追加ボタン、65,77a,77b 削除ボタン、66 学習実行ボタン、72,85 良品画像リスト、73,84 不良品画像リスト、76 移動ボタン、78 評価実行ボタン、81 操作履歴テーブル、82,92 カーソル、87,93~95 表示欄、88 ロールバック実行ボタン、89 ボタン、91 操作履歴グラフ、101 学習用画像、102 評価用画像、103 第1評価用画像、104 第2評価用画像、105 第1復元画像、106 第2復元画像、107,108,205,I12 差分画像、110,210 CPU、111,211 RAM、112,212 ROM、113,213 通信インターフェース、114,215 入力インターフェース、115,216 表示コントローラ、116,217 ドライブ、120,220 記憶部、122 学習プログラム、123 モデルデータ、124 評価プログラム、125 履歴情報、130,230 記憶媒体、201 観測画像、203 復元観測画像、214 外部インターフェース、221 判定プログラム、I10 画像、I11 復元画像、I13 二値化画像、I14 検出画像、L 欠陥、SYS システム、W ワーク。 1 Learning device, 2 Judgment device, 3 Camera, 5 Learning model, 6, 9 Display device, 7, 8 Input device, 11 Learning image group, 12 Evaluation image group, 13 Learning section, 14 Evaluation section, 15 Reception section , 16 recording unit, 17 output unit, 18 setting unit, 21 acquisition unit, 22 generation unit, 23 determination unit, 24 output unit, 51 input layer, 52 intermediate layer, 53 output layer, 55 determination parameter candidate, 56 determination parameter, 57, 58 Threshold, 60, 70, 80, 90 Screen, 61, 71 Candidate list, 62, 83 Learning image list, 63, 74, 86 Area, 64, 75a, 75b Add button, 65, 77a, 77b Delete button, 66 Learning execution button, 72, 85 Good product image list, 73, 84 Defective product image list, 76 Movement button, 78 Evaluation execution button, 81 Operation history table, 82, 92 Cursor, 87, 93-95 Display field, 88 Rollback Execution button, 89 Button, 91 Operation history graph, 101 Learning image, 102 Evaluation image, 103 First evaluation image, 104 Second evaluation image, 105 First restored image, 106 Second restored image, 107, 108 ,205,I12 Differential image, 110,210 CPU, 111,211 RAM, 112,212 ROM, 113,213 Communication interface, 114,215 Input interface, 115,216 Display controller, 116,217 Drive, 120,220 Storage unit , 122 learning program, 123 model data, 124 evaluation program, 125 history information, 130, 230 storage medium, 201 observed image, 203 restored observed image, 214 external interface, 221 determination program, I10 image, I11 restored image, I13 binary image, I14 detection image, L defect, SYS system, W work.

Claims (11)

学習装置であって、
対象物の写る1以上の学習用画像を含む学習用画像グループを用いた機械学習を行なうことにより、前記対象物の属性を判定するために利用される学習モデルを生成する学習部と、
評価用画像グループに含まれる1以上の評価用画像を前記学習モデルに入力することにより、前記学習モデルの性能の評価を行なう評価部と、
前記学習用画像グループを更新する第1操作を受け付ける受付部と、
前記第1操作ごとに、前記第1操作の内容と、更新後の前記学習用画像グループを用いて生成された前記学習モデルに対する前記評価の結果とを対応付けて記録する記録部と、
前記記録部によって記録された履歴情報を出力する出力部とを備え
前記第1操作は、前記学習用画像グループに学習用画像を追加する追加操作を含み、
前記第1操作の内容は、前記追加操作について、追加された学習用画像を識別する識別情報を含む、学習装置。
A learning device,
a learning unit that generates a learning model used to determine attributes of the object by performing machine learning using a learning image group including one or more learning images of the object;
an evaluation unit that evaluates the performance of the learning model by inputting one or more evaluation images included in the evaluation image group to the learning model;
a reception unit that accepts a first operation to update the learning image group;
a recording unit that records, for each of the first operations, the content of the first operation and the result of the evaluation of the learning model generated using the updated learning image group;
an output unit that outputs history information recorded by the recording unit ,
The first operation includes an additional operation of adding a learning image to the learning image group,
The content of the first operation includes identification information for identifying the added learning image for the additional operation .
前記学習モデルは、前記対象物の写る画像が入力され、前記対象物の良否を判定するための出力情報を出力し、
前記評価用画像グループは、良品である前記対象物の写る1以上の第1評価用画像と、不良品である前記対象物の写る1以上の第2評価用画像とを含み、
前記評価部は、前記評価の結果として、
前記1以上の第1評価用画像のうち、前記学習モデルに入力することにより得られる前記出力情報に基づいて前記対象物が不良品と判定された第1評価用画像の第1割合に応じた値と、
前記1以上の第2評価用画像のうち、前記学習モデルに入力することにより得られる前記出力情報に基づいて前記対象物が良品と判定された第2評価用画像の第2割合に応じた値とを算出する、請求項1に記載の学習装置。
The learning model receives an image of the object as input, outputs output information for determining the quality of the object,
The evaluation image group includes one or more first evaluation images in which the object is a non-defective product and one or more second evaluation images in which the object is a defective product,
As a result of the evaluation, the evaluation unit:
Among the one or more first evaluation images, the object is determined to be a defective product based on the output information obtained by inputting the learning model to a first percentage of the first evaluation images. value and
A value corresponding to a second ratio of second evaluation images in which the object is determined to be a good product based on the output information obtained by inputting the object to the learning model, among the one or more second evaluation images. The learning device according to claim 1, which calculates.
前記出力情報を用いた前記対象物の良否の判定は、前記出力情報が判定条件を満たすか否かに応じて実施され、
前記評価部は、前記第2割合が予め定められた閾値以下となるように前記判定条件を決定する、請求項2に記載の学習装置。
The determination of the quality of the object using the output information is performed depending on whether the output information satisfies a determination condition,
The learning device according to claim 2, wherein the evaluation unit determines the determination condition such that the second ratio is equal to or less than a predetermined threshold.
前記対象物の属性を判定する判定装置に前記学習モデルを設定する設定部をさらに備え、
前記記録部は、前記第1操作ごとに、更新後の前記学習用画像グループをさらに記録し、
前記設定部は、前記履歴情報の中から指定された第1操作に対応して記録された前記学習用画像グループを用いて生成された前記学習モデルを前記判定装置に設定する、請求項1から3のいずれか1項に記載の学習装置。
further comprising a setting unit that sets the learning model to a determination device that determines attributes of the object;
The recording unit further records the updated learning image group for each of the first operations,
From claim 1, wherein the setting unit sets, in the determination device, the learning model generated using the learning image group recorded in response to a first operation specified from the history information. 3. The learning device according to any one of 3.
前記対象物の属性を判定する判定装置に前記学習モデルを設定する設定部をさらに備え、
前記記録部は、前記第1操作ごとに、更新後の前記学習用画像グループを用いて生成された前記学習モデルをさらに記録し、
前記設定部は、前記履歴情報の中から指定された第1操作に対応して記録された前記学習モデルを前記判定装置に設定する、請求項1から3のいずれか1項に記載の学習装置。
further comprising a setting unit that sets the learning model to a determination device that determines attributes of the object;
The recording unit further records, for each of the first operations, the learning model generated using the updated learning image group,
The learning device according to any one of claims 1 to 3, wherein the setting unit sets the learning model recorded in response to a first operation specified from the history information to the determination device. .
前記受付部は、前記評価用画像グループを更新する第2操作をさらに受け付け、
前記記録部は、さらに、前記第2操作ごとに、前記第2操作の内容と、更新後の前記評価用画像グループを用いた前記評価の結果とを対応付けて記録する、請求項1から5のいずれか1項に記載の学習装置。
The reception unit further receives a second operation for updating the evaluation image group,
5. The recording unit further records, for each second operation, the content of the second operation and the result of the evaluation using the updated evaluation image group in association with each other. The learning device according to any one of the above.
前記学習部は、モデル生成用パラメータを用いて前記学習モデルを生成し、
前記受付部は、前記モデル生成用パラメータを更新する第3操作をさらに受け付け、
前記記録部は、さらに、前記第3操作ごとに、前記第3操作の内容と、更新後の前記モデル生成用パラメータを用いて生成された前記学習モデルに対する前記評価の結果とを対応付けて記録する、請求項1から6のいずれか1項に記載の学習装置。
The learning unit generates the learning model using model generation parameters,
The reception unit further receives a third operation for updating the model generation parameters,
The recording unit further records, for each third operation, the content of the third operation in association with the evaluation result for the learning model generated using the updated model generation parameters. The learning device according to any one of claims 1 to 6.
前記出力部は、前記第1操作ごとの前記第1操作の内容と前記評価の結果との一覧表を表示装置に表示させる、請求項1に記載の学習装置。 The learning device according to claim 1, wherein the output unit causes a display device to display a list of the contents of the first operation and the results of the evaluation for each of the first operations. 前記評価部は、前記学習モデルの性能を示す評価値を前記評価の結果として算出し、
前記出力部は、前記第1操作ごとの前記評価値の推移を示すグラフを表示装置に表示させる、請求項1に記載の学習装置。
The evaluation unit calculates an evaluation value indicating the performance of the learning model as a result of the evaluation,
The learning device according to claim 1, wherein the output unit causes a display device to display a graph showing the transition of the evaluation value for each of the first operations.
対象物の写る1以上の学習用画像を含む学習用画像グループを用いた機械学習を行なうことにより、前記対象物の属性を判定するために利用される学習モデルを生成するステップと、
評価用画像グループに含まれる1以上の評価用画像を前記学習モデルに入力することにより、前記学習モデルの性能の評価を行なうステップと、
前記学習用画像グループを更新する操作を受け付けるステップと、
前記操作ごとに、前記操作の内容と、更新後の前記学習用画像グループを用いて生成された前記学習モデルに対する前記評価の結果とを対応付けて記録するステップと、
記録された履歴情報を出力するステップとを備え
前記操作は、前記学習用画像グループに学習用画像を追加する追加操作を含み、
前記操作の内容は、前記追加操作について、追加された学習用画像を識別する識別情報を含む、学習方法。
generating a learning model used to determine the attributes of the object by performing machine learning using a learning image group including one or more learning images of the object;
evaluating the performance of the learning model by inputting one or more evaluation images included in the evaluation image group to the learning model;
accepting an operation to update the learning image group;
For each operation, the content of the operation and the result of the evaluation of the learning model generated using the updated training image group are recorded in association with each other;
and a step of outputting recorded history information ,
The operation includes an additional operation of adding a learning image to the learning image group,
The content of the operation includes identification information for identifying the added learning image for the additional operation .
請求項10に記載の学習方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the learning method according to claim 10.
JP2019214617A 2019-11-27 2019-11-27 Learning devices, learning methods and programs Active JP7392425B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019214617A JP7392425B2 (en) 2019-11-27 2019-11-27 Learning devices, learning methods and programs
CN202011079035.0A CN112862062A (en) 2019-11-27 2020-10-10 Learning device, learning method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019214617A JP7392425B2 (en) 2019-11-27 2019-11-27 Learning devices, learning methods and programs

Publications (2)

Publication Number Publication Date
JP2021086381A JP2021086381A (en) 2021-06-03
JP7392425B2 true JP7392425B2 (en) 2023-12-06

Family

ID=75995385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019214617A Active JP7392425B2 (en) 2019-11-27 2019-11-27 Learning devices, learning methods and programs

Country Status (2)

Country Link
JP (1) JP7392425B2 (en)
CN (1) CN112862062A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7699978B2 (en) * 2021-07-01 2025-06-30 株式会社日立製作所 Computer and visual inspection method
JP2023076347A (en) * 2021-11-22 2023-06-01 国立大学法人九州工業大学 Anomaly detection device and anomaly detection method
JPWO2024181307A1 (en) * 2023-02-28 2024-09-06
JP2024128816A (en) * 2023-03-10 2024-09-24 株式会社日立製作所 Learning image collection system, learning image collection method, and learning image collection program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006258535A (en) 2005-03-16 2006-09-28 Omron Corp Inspection apparatus and inspection method
JP2016173615A (en) 2013-06-24 2016-09-29 株式会社日立ハイテクノロジーズ Measurement system
JP2017228068A (en) 2016-06-22 2017-12-28 富士通株式会社 Machine learning management program, machine learning management method and machine learning management device
JP2018151990A (en) 2017-03-14 2018-09-27 オムロン株式会社 Notification device, notification method, and program for the same
JP2019106119A (en) 2017-12-14 2019-06-27 オムロン株式会社 Detection system, information processing apparatus, evaluation method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5311899B2 (en) * 2008-06-30 2013-10-09 キヤノン株式会社 Pattern detector learning apparatus, learning method, and program
EP2177898A1 (en) * 2008-10-14 2010-04-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for selecting an optimized evaluation feature subset for an inspection of free-form surfaces and method for inspecting a free-form surface
RU2713684C2 (en) * 2015-05-15 2020-02-06 Моушен Метрикс Интернешэнл Корп Method and device for determination of wear part location on working tool image
CN110363183B (en) * 2019-07-30 2020-05-08 贵州大学 A privacy protection method for service robot visual image based on generative adversarial network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006258535A (en) 2005-03-16 2006-09-28 Omron Corp Inspection apparatus and inspection method
JP2016173615A (en) 2013-06-24 2016-09-29 株式会社日立ハイテクノロジーズ Measurement system
JP2017228068A (en) 2016-06-22 2017-12-28 富士通株式会社 Machine learning management program, machine learning management method and machine learning management device
JP2018151990A (en) 2017-03-14 2018-09-27 オムロン株式会社 Notification device, notification method, and program for the same
JP2019106119A (en) 2017-12-14 2019-06-27 オムロン株式会社 Detection system, information processing apparatus, evaluation method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岡田彩加他,自己想起回路を用いた果実の良否判定,SSII2014 第20回画像センシングシンポジウム 講演論文集 [CD-ROM],日本,画像センシング技術研究会,2014年06月12日,pp.IS1-26-1~IS1-26-6

Also Published As

Publication number Publication date
CN112862062A (en) 2021-05-28
JP2021086381A (en) 2021-06-03

Similar Documents

Publication Publication Date Title
JP7392425B2 (en) Learning devices, learning methods and programs
JP7289427B2 (en) Program, information processing method and information processing apparatus
JP7493323B2 (en) Information processing device, method for controlling information processing device, and program
CN110911298B (en) Methods for determining wafer inspection parameters
JP7435303B2 (en) Inspection device, unit selection device, inspection method, and inspection program
KR20210039927A (en) System and method of classifying manufactured products
CN110945528A (en) Method for generating training set for inspecting semiconductor sample and system thereof
JP7699978B2 (en) Computer and visual inspection method
JP2017097718A (en) Identification processing device, identification system, identification method, and program
CN114862832B (en) Optimization method, device, equipment and storage medium for defect detection model
JP7453813B2 (en) Inspection equipment, inspection methods, programs, learning devices, learning methods, and learned datasets
CN118898610A (en) A textile defect detection method and system based on machine vision
JP2020101900A (en) Image inspection apparatus, learning method for image inspection, and image inspection program
JP7070308B2 (en) Estimator generator, inspection device, estimator generator method, and estimator generator
JP7404817B2 (en) Learning device, detection device, learning method, and learning program
JP7416071B2 (en) Judgment device and judgment program
JP2022123734A (en) Image judgment method, image judgment system and image judgment program
JP7725391B2 (en) Appearance analysis system, appearance analysis method, and program
JP2022029262A (en) Image processing apparatus, image processing method, image processing program, and learning device
JP2024067674A (en) Inspection method, inspection system, and neural network
JP2021174194A (en) Learning data processing device, learning device, learning data processing method, and program
JP4342299B2 (en) Common pattern extraction program and common pattern extraction method
US12394032B1 (en) Apparatus and method for rescan workflow management in automated scanning systems
KR102877630B1 (en) Anomaly detection method using depth information
JP2024102439A (en) Learning support device, method for supporting learning, and learning support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231106

R150 Certificate of patent or registration of utility model

Ref document number: 7392425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150