US9916965(KLA TENCOR CORP [US])
[0059] Deep learning is part of a broader family of machine learning methods based on learning representations of data.
【0057】
深層学習は、データの学習表現に基づく機械学習法の広範なグループの部分である。
An observation (e.g., an image) can be represented in many ways such as a vector of intensity values per pixel, or in a more abstract way as a set of edges, regions of particular shape, etc.
観察(例えば、画像)は、ピクセルあたりの強度値のベクトルなどの多くのやり方、またはエッジのセット、特定の形状の領域などのより抽象的なやり方で表すことができる。
Some representations are better than others at simplifying the learning task (e.g., face recognition or facial expression recognition).
いくつかの表現は、学習タスク(例えば、顔認識または表情認識)を単純化することにおいて他の表現よりも優れている。
One of the promises of deep learning is replacing handcrafted features with efficient algorithms for unsupervised or semi-supervised feature learning and hierarchical feature extraction.
深層学習の有望な点の1つは、人手による特徴量(handcrafted feature)を教師なしまたは半教師ありの特徴部学習および階層特徴部抽出のための効率的なアルゴリズムで置き換えることである。
US9922269(KLA TENCOR CORP [US])
[0034] The one or more attributes using for grouping defects
【0035】
欠陥のグループ分けに用いられる一通り又は複数通りの属性の例としては、
may include, but are not limited to, image feature amounts, defect coordinates, composition analysis results, manufacture initiation history data, or machine QC (Quality Control) data.
画像特徴量、欠陥座標、組成分析結果、製造開始履歴データ、マシンQC(品質管理)データ等がある。
Further, the one or more attributes
更に、そうした一通り又は複数通りの属性は、
may be obtained from multiple types of defect inspection tools or systems, such as, but not limited to, an optical or SEM foreign matter inspection machine, a pattern inspection machine, a defect review machine, SPM, or an elemental analysis machine.
複数種類の欠陥検査ツール又はシステム、例えば光学式又はSEM式異物検査機、パターン検査機、欠陥レビュー機、SPM、分子分析機等から得ればよい。
Attributes suitable for classification of defects is described in U.S. Pat. No. 7,602,962, issued on Oct. 13, 2009, which is incorporated herein by reference in the entirety.
欠陥分類に適する属性については2009年10月13日付特許文献1にて記述されているので、この参照を以てその全容を本願に繰り入れることにする。
US11047806(KLA TENCOR CORP [US])
[0022] In some examples, defect information associated with defects identified by optical inspection is sampled to generate a diversity set of defects of interest (DOIs).
【0023】
一部の例では、光学的検査によって識別された欠陥に関連する欠陥情報は、注目すべき重要な欠陥(DOI)のダイバーシティセットを生成するためにサンプリングされる。
In some examples, the defects are binned and a few defects are selected from each bin to generate the diversity set of DOIs.
一部の例では、欠陥がビニングされ、各ビンから数個の欠陥が選択されてDOIのダイバーシティセットを生成する。
Defect verification measurements are performed on the diversity set of DOIs.
欠陥検証測定がDOIのダイバーシティセットに実行される。
Defect verification data from the diversity set of DOIs, any other set of verified defects, or a combination thereof,
DOIのダイバーシティセット、検証済み欠陥の任意の他のセット、またはそれらの組み合わせからの欠陥検証データが、
are mapped to the saved through focus defect image patches and corresponding feature vectors.
セーブされたスルーフォーカス欠陥イメージパッチおよび対応する特徴量ベクトルにマッピングされる。
The defect verification data and the corresponding through focus defect image patches and corresponding feature vectors are employed to train a nuisance elimination filter.
欠陥検証データおよび対応するスルーフォーカス欠陥イメージパッチおよび対応する特徴量ベクトルがニューサンス除去フィルタを訓練するために用いられる。
US2023043354(SANOFI SA [FR])
[0045] There may be further candidates for variables under tests that have an underlying extreme value distribution, for instance a Gumbel distribution.
【0033】
基礎となる極値分布、たとえばガンベル分布を有する検査対象の計量値に対して、さらなる候補があり得る。
In principle every feature that is a maximum or a minimum of at least one independent and identical distributed (iid) variable may be the variable under test.
原則的に、少なくとも1つの独立同一分布(iid)変数の最大または最小であるすべての特徴量が、検査対象の計量値であり得る。
US2018245154(UNIV DUKE [US])
[0235] The data for the quantified gene signatures are then processed using a computer and according to the probit classifier described above (equation 1) and reproduce here.
【0189】
定量化された遺伝子シグネチャについてのデータは、その後、コンピュータを用い、上記のプロビット分類子(方程式1)に従って処理され、ここに再生される。
Normalized gene expression levels of each gene of the signature are the explanatory or independent variables or features used in the classifier,
シグネチャの各遺伝子の正規化遺伝子発現レベルは、分類子に用いられる説明変数または独立変数または特徴量であり、
in this example the general form of the classifier is a probit regression formulation:
この実施例において、分類子の一般的な型は、以下のプロビット回帰式である:
US2021365707(QUALCOMM INC [US])
[0182] The Harr features can be computed by calculating sums of image pixels within particular feature regions of the object image, such as those of the integral image.
【0142】
Haar特徴量は、積分画像の特徴領域などの、物体画像の特定の特徴領域内の画像画素の合計を算出することによって計算され得る。
In faces, for example, a region with an eye is typically darker than a region with a nose bridge or cheeks.
顔では、たとえば、目のある領域は通常、鼻梁または頬のある領域より暗い。
The Haar features can be selected by a learning algorithm (e.g., an Adaboost learning algorithm) that selects the best features and/or trains classifiers that use them,
Haar特徴量は、最良の特徴を選択する、および/またはそれらを使用する分類器を訓練する、学習アルゴリズム(たとえば、Adaboost学習アルゴリズム)によって選択されてもよく、
and can be used to classify a window as a face (or other object) window or a non-face window effectively with a cascaded classifier.
カスケード分類器を用いて顔(または他の物体)のウィンドウまたは顔ではないウィンドウを実質的に分類するために使用されてもよい。
A cascaded classifier includes multiple classifiers combined in a cascade,
カスケード分類器は、カスケード形式で組み合わせられる複数の分類器を含み、
which allows background regions of the image to be quickly discarded while performing more computation on object-like regions.
これは、物体のような領域に対してより多くの計算を実行しながら、画像の背景領域が速やかに廃棄されることを可能にする。
US11418773(PLATO SYSTEMS INC [US])
[0146] Neural networks utilize features for analyzing the data to generate assessments (e.g., recognize units of speech).
【0115】
ニューラルネットワークは、データを解析して評価を生成する(例えば、音声の単位を認識する)べく特徴量を利用する。
A feature is an individual measurable property of a phenomenon being observed.
特徴量とは、観察される現象の個々の測定可能な性質のことである。
The concept of feature is related to that of an explanatory variable used in statistical techniques such as linear regression.
特徴量の概念は、線形回帰などの統計技術で用いられる説明変数の概念に関連している。
Further, deep features represent the output of nodes in hidden layers of the deep neural network.
さらに、深層特徴量は、深層ニューラルネットワークの隠れ層のノードの出力を表している。