和英特許翻訳メモ

便利そうな表現、疑問、謎、その他メモ書き。思いつきで書いてます。
拾った用例は必ずしも典型例、模範例ではありません。

ログインする

2022-05-31 16:06:16 | 英語特許散策

US9648476
When logging into multiple accounts, the smart sensor may log into the accounts substantially simultaneously or serially.
複数のアカウントログインする場合、スマート・センサは、ほぼ同時に又は直列にアカウントにログインし得る。

In some embodiments, interacting further comprises transmitting metadata with the message.
一部の実施例では、相互作用は更に、メタデータをメッセージとともに送信する工程を含む。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

電子線描画

2022-05-30 23:37:42 | 英語特許散策

US9545507
[0189] A pattern was then formed on each substrate via an electron beam lithography patterning process as is known in the art using a JEOL JBX-9300FS EBL system. The processing conditions were as follows:
【0188】
  次に、日本電子(JEOL)製のJBX-9300FS電子線描画(EBL)装置を用いて、当分野で既知であるような電子ビームリソグラフィパターニングステップによって各基板上にパターンを形成した。処理条件は、以下の通りであった。

US9995895
[0085] Also, the bonding can be performed on top of the ILD1 dielectric, the latter including tungsten contacts (not shown).
【0076】
  さらに、結合は、ILD1誘電体の頂部上で実施することができ、ILD1誘電体はタングステン接点を含む(図示せず)。

As the tungsten contacts are small compared to the overall wafer area, the adhesion is not expected to degrade.
タングステン接点は、ウェハ領域全体と比較して小さいので、接着が劣化すると予想されない。

Tungsten as a material is preferred for the contact
材料としてのタングステンは、接点として好ましい。

as they are then able to serve as alignment markers for an electron beam (e-beam) process as they have a large ion mass and thus a good contrast using an electron beam imaging system.
というのは電子線描画システムを使用すると、タングステンは、大きいイオン質量、したがって良好なコントラストを有するので、電子線(eビーム)プロセスにとっての位置合わせマーカとして働くことが可能だからである。

US2016115032
[0058] FIG. 2a is a schematic view of the Hall mobility measurement device with nominal channel widths of 1 μm and lengths of 1.5 μm using electron beam lithography and oxygen plasma etching.
【図2】図2aは、電子線描画及び酸素プラズマエッチングを用いた公称チャネル幅1μm、長さ1.5μmのホール移動度測定装置の模式図である。図2bは、作製したホール装置の光学顕微鏡画像である。

US8724115
[0005] In EBDW lithography, the substrate (e.g., semiconductor wafer) is sequentially exposed by a focused electron beam,
【0005】
  EBDWリソグラフィでは、基板(例えば、半導体ウェーハ)を集束電子ビームによって順次露光する。

whereby the beam is scanned over the whole wafer and the desired structure is written on the wafer by corresponding blanking of the beam.
それによりビームがウェーハ全体にわたって走査し、ビームのブランキングを対応させることにより所望の構造をウェーハ上に描画する

Alternatively, in a vector scan method, the focused electron beam is guided over the regions to be exposed.
あるいは、ベクタースキャン方式では、集束電子ビームは露光領域上に導かれる。

The beam spot may be shaped by a diaphragm.
ビームスポットは絞りにより成形される。

Scanning e-beam lithography is distinguished by high flexibility, since the circuit geometries are stored in a computer and can be optionally varied.
回路ジオメトリはコンピュータに保存され必要に応じて変えることができるため、走査電子ビームリソグラフィは高い柔軟性が特徴である。

Furthermore, very high resolutions can be attained by electron beam writing, since electron foci, with small diameters, may be attained with electron-optical imaging systems.
更に、小径の電子線焦点が電子光学イメージングシステムを用いて実現できるため、電子線描画により非常に高い解像度が得られる。

US9443346
[0001] The present disclosure generally relates to the field of x-ray visualization.
【0002】
  本開示は、概略としてx線描画の分野に関する。

The present disclosure relates more specifically to the creation of two-dimensional x-ray images for providing assistive views in preparation for an operation.
本開示は、より具体的には、手術の準備において補助的な表示を与えるための二次元x線画像の作成に関する。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

処理の内容

2022-05-30 20:17:34 | 英語特許散策

US10773383
[0011] The following discussion of the embodiments of the disclosure directed to robot high frequency tool center point position streaming is merely exemplary in nature, and is in no way intended to limit the disclosed techniques or their applications or uses.
【0008】
  ロボットの高周波数ツール中心点位置ストリーミングに対する開示の実施形態の以下の議論は、本来単に例示であり、開示の技術、又はその応用、又は使用を制限することを意図していない。

For example, the technique is described in the context of factory floor part processing, but is equally applicable to any other robot task or application. 
例えば、技術は、工場フロアの部品処理の内容で説明されるが、同様に、任意の他のロボットの作業又はアプリケーションに適用できる。

US11204360
[0005] The contents of the pretreatment vary depending on the sample type, for example, for a urine test, the centrifugal process does not need to be performed. 
【0004】
  処理の内容は検体の種別に応じて異なり、例えば尿試験の場合、遠心処理を実施する必要はない。

US9181301
Investigators performing the study are unaware of the content of the various treatments until after clearance studies and histopathological grading are completed.
本研究を実施する研究者は、クリアランス研究および組織病理学的等級付けが完了する後まで、種々の処理の内容に気付いていない。

Histopathological slides are graded by individuals also blinded to the treatment groups.
組織病理学スライドは、これもまた、処理群に対して目隠し状態である個人によって等級付けされる。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

開発現場

2022-05-30 19:31:57 | 英語特許散策

US10005016
[0039] By way of non-limiting example, the TACS 104 may include one or more application specific integrated circuits (ASICs), one or more field programmable gate arrays (FPGAs), one or more general purpose processors, or any combination thereof.
【0038】
  限定されない例として、TACS104には、1または複数の特定用途向け集積回路(ASIC)、1または複数の開発現場でプログラム可能なゲートアレイ(FPGA)、1または複数の汎用プロセッサ、またはその任意の組み合わせが含まれてよい。

US7984096
[0027] Still further, known object-oriented process control software implementations
【0012】
  またさらに、公知のオブジェクト指向型プロセス制御ソフトウェアインプリメンテーションは、

treat communication between software elements or components (e.g., services) and developers (e.g., software developers at different development sites) as inexpensive (e.g., from a processing efficiency standpoint) and implicit. 
ソフトウェア要素または構成要素(例えばサービス)と開発者(異なる開発現場ソフトウェア開発者)間の通信を、(処理効率の観点から)安価かつ暗示的に処理する。

US8826754
As electronic devices have become smaller and the frequency signals generated within them has increased, so has the demand for probes with greater sensitivity.
【0005】
  電子デバイスは益々小さくなり、電子デバイス内で生成される信号の周波数は高くなっているので、プローブの感度に対する要求も益々厳しくなっている。

Consequently, sensitive probes are increasingly more delicate and easy to damage when mishandled.
結果として、高感度プローブは、益々デリケートになり、操作ミスによって破損しやすくなってきている。

This may be especially worrisome to owners of a lab, as probes are a nontrivial expense.
これは、プローブもそれほど安いものはないので、研究開発現場のオーナーにとっては特に心配の種になっている。

US2020273024
[0530] 13. The platform's committee has the ability to prioritize some gates by adding a certain number of transactions to priority nodes (for example, using a new protocol or located in network development sites). 
13.プラットフォームの委員会は、一定数のトランザクションを(例えば、新しいプロトコルを使用する、または、ネットワーク開発現場に配置された)優先ノードに加えることによって、一部のゲートに優先順位をつける能力を有する。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

説明は以上である

2022-05-30 15:57:51 | 英語特許散策

US2020017266
[0210] This completes the description of the preferred and alternate embodiments of the invention.
【0084】
  本発明の好ましい実施形態及び代替実施形態の説明は以上であるが、

Those skilled in the art may recognize other equivalents to the specific embodiment described herein which equivalents are intended to be encompassed by the claims attached hereto.
当業者は、本明細書に記載の特定の実施形態に対する他の均等物を認識することができ、これら均等物は添付の特許請求の範囲によって包含されることが意図されている。

US10429511
[0129] This concludes the description of the preferred embodiments of the present disclosure.
【0122】
  本開示の好適な実施形態の説明は以上である

The foregoing description of the preferred embodiment has been presented for the purposes of illustration and description.
前述の好適な実施形態の説明は、例示及び説明を目的として提示してきた。

It is not intended to be exhaustive or to limit the disclosure to the precise form disclosed.
これは、限定列挙を意図しておらず、また本開示を厳密に開示した形式に限定することを意図していない。

Many modifications and variations are possible in light of the above teaching.
上記の教示を踏まえ、多くの修正及び変形が可能である。

It is intended that the scope of rights be limited not by this detailed description, but rather by the claims appended hereto.
権利範囲は、詳細な説明によってではなく、本明細書に添付の請求項によって限定されるべきであることが意図される。

US10613424
[0047] The description of particular embodiments of the present invention is now complete.
【0041】
  本発明の特定の実施形態の説明は以上である

Many of the described features may be substituted, altered or omitted without departing from the scope of the invention.
上記特徴の多くは、本発明の範囲を逸脱することなく代替、変更または省略され得る。

For example, lasers (or other narrow-band light sources) of alternative bandwidths, may be substituted for the specific lasers described.
例えば、別の帯域幅のレーザ(または、他の狭帯域光源)を、上記特定のレーザの代わりに用いてもよい。

These and other deviations from the particular embodiments shown will be apparent to those skilled in the art, particularly in view of the foregoing disclosure.
上記の特定の実施形態からのこれらの変更および他の変更は、特に前述の開示から当業者にとって明らかであろう。

US9497447
[0068] The foregoing has been a detailed description of illustrative embodiments of the invention.
【0066】
  本発明の例示的実施形態の詳細な説明は以上である

Various modifications and additions can be made without departing from the spirit and scope if this invention. 
本発明の精神及び範囲から逸脱しない限りにおいて、様々な改変及び追加を行うことが可能である。

US10117763
[0213] This completes the description of the present disclosure. Those skilled in the art may recognize other equivalents to the specific embodiment described herein which equivalents are intended to be encompassed by the claims attached hereto.

【0127】
  本願の説明は以上である。当業者は、本明細書に記載された特定の実施形態についての他の均等形態であって、本明細書に添付された特許請求の範囲によって包含されることが意図される均等形態を認識することができる。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

訓練、トレーニング、学習、モデル

2022-05-30 12:09:57 | 参考資料

AI・機械学習の用語辞典@IT

トレーニング(training、訓練)とは?
モデルのパラメーターを自動的に調整

学習(learning)とは?
「モデルを作ること。トレーニングデータを入力しながら、適切な出力を行う具体的な計算式/計算方法を求めていく(=トレーニングしていく)作業」

モデル(model)とは?
「学習後の具体的な計算式/計算方法「学習済みモデル(Learned model、学習モデル)」「トレーニング済みモデル(Trained model、訓練済みモデル)」とも呼ばれる。」

「パラメーターが決まった具体的な式」

「[入力]→[モデル]→[出力]」

「機械学習のモデルを作成(=学習)する手順/方法は「手法」と呼ばれる。」

 

深層学習はどのように賢くなるのか

「訓練する(学習させる)」

学習:「データから、最もうまく予言できるパラメータを決める」

「データの学習」

機械学習の種類

「相関関係を見出して、数式化する(モデルを構築する)」

機械学習、Wikipedia

機械学習(きかいがくしゅう、英: machine learning)とは、経験からの学習により自動で改善するコンピューターアルゴリズムもしくはその研究領域で[1][2]、人工知能の一種であるとみなされている。「訓練データ」もしくは「学習データ」と呼ばれるデータを使って学習し、学習結果を使って何らかのタスクをこなす。例えば過去のスパムメールを訓練データとして用いて学習し、スパムフィルタリングというタスクをこなす、といった事が可能となる。

訓練データを使ってプログラムの性能を改善する過程を、「プログラムを訓練する」もしくは「プログラムを学習させる」という。

教師あり学習では訓練データの事を教師データとも呼ぶ

Machine learning, Wikipedia

Machine learning (ML) is a field of inquiry devoted to understanding and building methods that 'learn', that is, methods that leverage data to improve performance on some set of tasks.[1] It is seen as a part of artificial intelligence. Machine learning algorithms build a model based on sample data, known as training data, in order to make predictions or decisions without being explicitly programmed to do so.[2] Machine learning algorithms are used in a wide variety of applications, such as in medicine, email filtering, speech recognition, and computer vision, where it is difficult or unfeasible to develop conventional algorithms to perform the needed tasks.[3]

 

The discipline of machine learning employs various approaches to teach computers to accomplish tasks where no fully satisfactory algorithm is available. In cases where vast numbers of potential answers exist, one approach is to label some of the correct answers as valid. This can then be used as training data for the computer to improve the algorithm(s) it uses to determine correct answers. For example, to train a system for the task of digital character recognition, the MNIST dataset of handwritten digits has often been used.[10]

 

Machine learning approaches are traditionally divided into three broad categories, depending on the nature of the "signal" or "feedback" available to the learning system:

Supervised learning: The computer is presented with example inputs and their desired outputs, given by a "teacher", and the goal is to learn a general rule that maps inputs to outputs.
Unsupervised learning: No labels are given to the learning algorithm, leaving it on its own to find structure in its input. Unsupervised learning can be a goal in itself (discovering hidden patterns in data) or a means towards an end (feature learning).
Reinforcement learning: A computer program interacts with a dynamic environment in which it must perform a certain goal (such as driving a vehicle or playing a game against an opponent). As it navigates its problem space, the program is provided feedback that's analogous to rewards, which it tries to maximize.[4]

Supervised learning
Main article: Supervised learning

A support-vector machine is a supervised learning model that divides the data into regions separated by a linear boundary. Here, the linear boundary divides the black circles from the white.
Supervised learning algorithms build a mathematical model of a set of data that contains both the inputs and the desired outputs.[34] The data is known as training data, and consists of a set of training examples. Each training example has one or more inputs and the desired output, also known as a supervisory signal. In the mathematical model, each training example is represented by an array or vector, sometimes called a feature vector, and the training data is represented by a matrix. Through iterative optimization of an objective function, supervised learning algorithms learn a function that can be used to predict the output associated with new inputs.[35] An optimal function will allow the algorithm to correctly determine the output for inputs that were not a part of the training data. An algorithm that improves the accuracy of its outputs or predictions over time is said to have learned to perform that task.[18]

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

学習、学習済み、訓練

2022-05-30 10:55:14 | 英語特許散策

迷う「学習」の英訳。モデルに「学習させる」場合はtrainingではないかという気がするがlearningの訳例も多い。

学習:learn, train

学習済み:trained, learned, learnt

教師付き:supervised

教師なし:unsupervised

US2022079518(JP)
[0180] The server performs the above process on each waveform image included in the training data, and generates the exacerbation detection model 173 .
【0104】
  サーバ1は、教師データに含まれる各波形画像について上記の処理を行い、増悪検出モデル173を生成する。

When the image of an electrical signal relating to the motion information is acquired from the detection sensor and the image of action potential information is acquired from the electromyogram sensor , the server
サーバ1は、検出センサ3から動作情報に関する電気信号の画像、及び筋電図センサ4から活動電位情報の画像を取得した場合、

detects the information relating to exacerbation in COPD in accordance with a command from the learned exacerbation detection model 173 stored in a memory.
メモリに記憶された学習済み増悪検出モデル173からの指令に従って、COPDにおける増悪に関する情報を検出する。

Meanwhile, when the server generates the learned exacerbation detection model 173 and then the terminal downloads and installs the learned exacerbation detection model 173 , the terminal may detect the information relating to exacerbation using the learned exacerbation detection model 173 .
なお、サーバ1が、学習済みの増悪検出モデル173を生成した後に、端末2は当該学習済みの増悪検出モデル173をダウンロードしてインストールした場合、端末2が学習済みの増悪検出モデル173を用いて増悪に関する情報を検出しても良い。

In this example, the terminal acquires an image of an electrical signal relating to the motion information from the detection sensor and an image of the action potential information from the electromyogram sensor , and detects the information relating to exacerbation using the exacerbation detection model 173 .
この場合、端末2は、検出センサ3から動作情報に関する電気信号の画像、及び筋電図センサ4から活動電位情報の画像を取得し、増悪検出モデル173を用いて増悪に関する情報を検出する。

Meanwhile, the terminal may perform a learning or re-learning process on the exacerbation detection model 173 using the training data.
なお、端末2は、増悪検出モデル173に対し、教師データを用いて学習または再学習処理を行っても良い。

US2021174518(JP)
[0117] Step S 4 is a training step.
【0096】
  ステップS4は、学習ステップである。

That is, a training device performs machine learning using the training data created at steps S 1 , S 2 .
即ち、学習装置が、ステップS1、S2で作成された教師データを用いて機械学習を行う。

A trained model generated from this machine learning is stored in a storage section of an information processing system 10 (described later).
この機械学習により得られた学習済みモデルは、後述する情報処理システム10の記憶部7に記憶される。

[0118] Step S 5 is a step of making an inference with the trained AI.
【0097】
  ステップS5は、学習したAIにより推論を行うステップである。

That is, a processing section of the information processing system 10 detects an object in a detection image based on the trained model stored in the storage section .
即ち、情報処理システム10の処理部4が、記憶部7に記憶された学習済みモデルに基づいて検出用画像から対象物を検出する。

The processing section causes information indicative of the detected object to be displayed in the detection image.
処理部4は、検出された対象物を示す情報を検出用画像に表示させる。

US2022036321(JP)
[0124] In the present embodiment, a mode will be described in which machine learning of learning the user's purchase history and the like is performed to generate an estimation model 147 and the purchase action of the user using member shops is estimated by using the generated estimation model 147 .
本実施の形態では、ユーザの購入履歴等を学習する機械学習を行って推定モデル147を生成し、生成した推定モデル147を用いて、加盟店を利用するユーザの購入行動を推定する形態について述べる。

Contents overlapping those of Embodiment 1 are denoted by the same reference signs and descriptions thereof are omitted.
なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。

[0129] While RNN is cited as an example of the estimation model 147 in the above, the estimation model 147 may be a different neural network.
【0109】
  なお、上記では推定モデル147の一例としてRNNを挙げたが、推定モデル147はその他のニューラルネットワークであってもよい。

Moreover, the estimation model 147 is not limited to a learnt model related to deep learning; for example, it may be a model based on an algorithm such as reinforcement learning, decision tree, random forest or SVM (Support Vector Machine).
また、推定モデル147は深層学習に係る学習済みモデルに限定されず、例えば強化学習、決定木、ランダムフォレスト、SVM(Support Vector Machine)等のアルゴリズムに基づくモデルであってもよい。

[0130] In the present embodiment, the server generates the estimation model 147 to estimate the purchase action of the user using member shops, based on the user's purchase history, posting history, individual information and the like by using, as the teacher data, information stored in the purchase history DB 144 , the posting history DB 145 and the like.
【0110】
  本実施の形態においてサーバ1は、購入履歴DB144、投稿履歴DB145などに蓄積された情報を教師データとして用いて、各ユーザの購入履歴、投稿履歴、個人情報などに基づき、加盟店を利用するユーザの購入行動を推定する推定モデル147を生成する。

US2021385611(JP)
[0165] The guide information may be determined by using AI (Artificial Intelligence).
【0114】
  なお、案内情報は、AI(Artificial Intelligence)を利用して決定することとしてもよい。

A neural network model including deep learning may be used as a learning model.
例えば、深層学習(ディープラーニング)を含むニューラルネットワークモデル学習モデルとして使用し、

For example, if the user sends a message of a request as the input information (such as “I want to go to an art gallery.”) using the message sending function in FIG. 33 (see below)
該学習モデルに、図33(下記参照)のメッセージ送信機能において、ユーザが、入力情報としてユーザの要求(例えば、「美術館に行きたい」の情報)のメッセージを送信した場合に、

and the other local user sends a message (e.g. “I recommend the art gallery A.”) in response to the input information,
地元住民の他のユーザが、案内情報(例えば、「A美術館がお勧めです」の情報)をメッセージとして送信した

such correspondence may be learned by the learning model so that the learning model can learn the guide information corresponding to the input information.
という情報を学習させることにより、入力情報に対応する案内情報を学習させることができる。

In such the case, the learning model is stored in the memory unit 12 of the server and used as a program module of AI software.
この場合、学習モデルはサーバ1の記憶部12に記憶され人工知能ソフトウェアのプログラムモジュールとして利用される。

 

The region information DB 141 stores a history of the large number of the destinations suggested by the local residents or the tour-guide persons in response to the user's request, attribute, and the location information. The learning model learns(*is trained using?)a plurality of sets of such combinations as training data. 
地域情報DB141にはユーザの要求、位置情報及び属性に対して、地域の住人又は観光ガイドが提案した目的地が履歴として大量に記憶されており、これら複数のセットを教師データとして学習モデル学習されている。

US2022129764(JP)
[0034] The learning unit 14 learns the node evaluation model for calculating the node evaluation value for the node feature vector of each node of the binary tree structure.
【0020】
  学習部14は、二分木構造の各々のノードのノード特徴に対するノード評価値を計算するノード評価モデルを学習する

In other words, the learning unit 14 learns the node evaluation model for calculating the weight for the node feature vector of each node.
換言すると、学習部14は、各々のノードのノード特徴における重みを計算するためのノード評価モデルを学習する。

For example, the learning unit 14 learns the node evaluation model using machine learning such as deep learning.
例えば、学習部14は、深層学習などの機械学習を用いてノード評価モデルを学習する。

[0071] In the anomaly detection apparatus according to this example embodiment, the learning unit 14 learns(*train?)the node evaluation model so as to separate the score of the data determined to be the outlier from the score that is highly likely to be the normal value.
【0057】
  本実施の形態にかかる異常検知装置では、学習部14は、外れ値と判断されたデータのスコアを正常値の可能性が高いスコアから離すようにノード評価モデルを学習する

The learning unit 14 learns the node evaluation model so as to separate the score of the data determined to be a normal value from the score that is highly likely to be the outlier.
また、学習部14は、正常値と判断されたデータのスコアを外れ値の可能性が高いスコアから離すようにノード評価モデルを学習する。

 

At this time, the score calculation unit 13 calculates the score by reusing the learned node evaluation model.
このときスコア算出部13は、学習済みのノード評価モデルを再利用して、スコアを算出する。

[0092] After that, the learning unit 14 tunes the node evaluation model (Step S 13 ).
【0079】
  その後、学習部14は、ノード評価モデルをチューニングする(ステップS13)。

That is, the node evaluation model is tuned according to the new data set by performing the learning processing of Steps S 3 to S 6 shown in FIG. 3. At this time, the tuning may be performed using teacher data.
すなわち、図3に示したステップS3~S6の学習処理を実施することで、ノード評価モデルを新たなデータセットに応じてチューニングする。このとき、教師データを利用してチューニングを実施してもよい。

If the tuning processing of Step S 13 is unnecessary, it may be omitted as appropriate.
なお、ステップS13のチューニング処理は不要であれば適宜省略してもよい。

US2022139788(JP)
[0054] In a preliminary learning step, in the semantic segmentation model, a cross-sectional SEM image that is input data and an annotation image that is color-coded for each region that is output data are given as teacher data to learn a shape of the region.
【0020】
  事前の学習ステップでは、セマンティック・セグメンテーションモデルには、入力データである断面SEM画像と、出力データである領域ごとに色分けしたアノテーション画像とを、教師データとして与えて、領域の形状を学習させる。

In the object detection model, the cross-sectional SEM image that is the input data and annotation data describing coordinates of a unit pattern (designated by a rectangular bounding box surrounding the pattern) that is the output data are given as the teacher data to learn a unit pattern shape.
また、物体検出モデルには、入力データである断面SEM画像と、出力データである単位パターンの座標(パターンを囲む矩形のバウンディング・ボックスで指定する)を記したアノテーションデータとを、教師データとして与えて、単位パターン形状を学習させる

[0055] In a prediction step, for a given input image, an image obtained by color-coding each region is estimated using the learned semantic segmentation model, and coordinates of a unit pattern are estimated using the learned object detection model.
【0021】
  推論ステップでは、与えられた入力画像に対し、学習済みセマンティック・セグメンテーションモデルで領域ごとに色分けした画像を推定し、学習済み物体検出モデルで単位パターンの座標を推定する。

US2021246631(JP)
[0130] The learning unit 2103 performs machine learning on the learning model to generate the learned model LM based on teaching data 2102 B (i.e., a teaching data set) generated by the teaching data generating unit 2102 .
【0115】
  学習部2103は、教師データ生成部2102により生成される教師データ2102B(教師データセット)に基づき、学習モデルに機械学習を行わせ、学習済みモデルLMを生成する。

The generated learned model LM is stored in the storage unit 2105 (i.e., the path 2103 B) after the accuracy validation is performed using a previously prepared validation data set.
そして、生成された学習済みモデルLMは、予め準備される検証用データセットを用いて、精度検証が実施された上で、記憶部2105に格納される(経路2103B)。

[0131] The learning unit 2103 generates the additionally learned model by performing additional learning on the learned model LM read from the storage unit 2105 (i.e., the path 2103 A) based on the teaching data (i.e., the teaching data set) generated by the teaching data generating unit 2102 .
【0116】
  また、学習部2103は、教師データ生成部2102により生成される教師データ教師データセット)に基づき、記憶部2105から読み出した学習済みモデルLM(経路2103A)に追加学習を行わせることにより追加学習済みモデルを生成する。

US2021216759(JP)
[0020] By the way, it is considered to use machine learning such as deep learning (Deep Learning (DL)) to recognize a skeleton including each joint.
【0005】
  ところで、各関節を含む骨格の認識に、深層学習(ディープラーニング(DL:Deep  Learning))などの機械学習を用いることも考えられる。

Taking the deep learning as an example, at the time of learning, a learning model is learned that acquires a distance image of a subject with a 3D laser sensor, inputs the distance image to a neural network, and recognizes each joint through deep learning.
ディープラーニングを例にして説明すると、学習時は、3Dレーザセンサにより被写体の距離画像を取得し、距離画像をニューラルネットワークに入力し、ディープラーニングによって各関節を認識する学習モデル学習する

At the time of recognition, a method is considered for inputting the distance image of the subject acquired with the 3D laser sensor to a learned learning model, acquiring a heat map image indicating an existence probability (likelihood) of each joint, and recognizing each joint.
認識時には、3Dレーザセンサにより取得された被写体の距離画像を学習済みの学習モデルに入力して、各関節の存在確率(尤度)を示すヒートマップ画像を取得し、各関節を認識する手法が考えられる。

US2021140670(JP)
[0017] According to the first aspect of the present invention, an environment reproduction model is trained with a correspondence relationship among an environmental state, an action therefor, and an environmental state after the action, by using training data including three types of data respectively corresponding thereto, based on time/space-interpolated environmental data in a target space,
【0016】
  この発明の第1の態様によれば、時空間補間された対象空間内の環境データに基づいて、環境の状態およびそれに対する行動とその後の環境の状態との対応関係を、それぞれに対応した3種類のデータからなる教師データを用いて環境再現モデル学習させ

and a change in environmental state is predicted from an environmental state and an action based on the trained environment reproduction model.
その学習済み環境再現モデルに基づいて、環境の状態と行動から環境の状態の変化を予測する。

In addition, an exploration model is trained such that an action to be taken next is output when an environmental state is input, and an action to be taken for the environmental state predicted by the environment reproduction model can thus be explored for by using the trained exploration model.
また、環境の状態を入力したときに次にとるべき行動が出力されるように探索モデルを学習させ、その学習済みの探索モデルを用いて、上記環境再現モデルによって予測された環境の状態に対してとるべき行動を探索できるようにしている。

US2021110162(JP)
[0056] The individual operation identifier 120 includes a model learned(*trained to identify?)using machine learning such as deep learning such that the operation content of each of the individual operations is identified.
【0032】
  個別作業識別器120は、深層学習などの機械学習を使用して、個別作業の作業内容を識別するように学習されたモデルを含む。

For example, the individual operation identifier 120 includes a recurrent neural network. The recurrent neural network has a multi-layer structure including, for example, an input layer N 1 , intermediate layers N 2 , N 3 , and N 4 , and an output layer N 5 .
例えば、個別作業識別器120は、リカレントニューラルネットワークで構成される。リカレントニューラルネットワークは、例えば、入力層N1、中間層N2,N3,N4、及び出力層N5を含む多層構造を持つ。

The number of the intermediate layers is not limited to three layers. The intermediate layers includes one or more layers. The individual operation identifier 120 may employ another type of machine learning algorism.
なお、中間層の数は3層に限らない。中間層は、1つ以上の層を含む。また、個別作業識別器120は、他の種類の機械学習のアルゴリズムを採用してもよい。


[0097] The operation content is determined by calculating the product of the probability P(W) and the coefficient q of each of the m individual operations output from the individual operation identifier 120 in this embodiment while the coefficient q may be learned in advance as the teacher data of the individual operation identifier 120 .
【0070】
  なお、本実施形態では、個別作業識別器120から出力されるm個の個別作業のそれぞれの確率P(W)と係数qの積を算出することにより作業内容を判断したが、係数qを個別作業識別器120の教師データとして予め学習させておいてもよい。

In this case, the detected value d and the coefficient q are input into the individual operation identifier 120 , and it is determined that the operation content whose value is maximal of those of the probabilities P(W) to P(Wm) acquired from the output is the operation content corresponding to the input detected value d.

この場合、個別作業識別器120には検出値dと係数qを入力し、出力から得られる確率P(W1)~P(Wm)の中で最も値が大きい作業内容が、入力した検出値dに対応する作業内容であると判断する。

US2021125724(JP)
[0052] The existing CAD module is a trained model that attains recognition performance by already performed machine learning.
【0045】
  既存のCADモジュールは、既に実施された機械学習によって認識性能を獲得した学習済みモデルである。

The trained model for performing a recognition process is called “recognition model”.
認識処理を行う学習済みモデルを「認識モデル」という。

Training performed for attaining initial recognition performance of the existing CAD module is called “first training”.
既存のCADモジュールとしての初期の認識性能を獲得するために行われた学習を「第1の学習」という。

A learning dataset used in the first training for the existing CAD module is called “first learning dataset”.
既存のCADモジュールの第1の学習に用いた学習用データセットを「第1の学習用データセット」という。

The first learning dataset may be a learning dataset provided in advance.
第1の学習用データセットは、予め用意された学習用データセットであってよい。

US2021033599(JP)
<>
【0076】
<<予測に利用する組織形態学的特徴について>>

[0083] One or more histomorphological feature for use in a prediction may be automatically decided by the information processing apparatus 2000 or may be manually decided by a user (for example, a physician) of the information processing apparatus 2000 .
予測に利用する1つ以上の組織形態学的特徴は、情報処理装置2000が自動的に決定してもよし、情報処理装置2000のユーザ(例えば医師)が手動で決定してもよい。

For example, in a case where a deep neural network is used as a prediction model (that is, in a case where the prediction data 30 is generated using deep learning),
例えば、予測モデルとしてディープニューラルネットワークを利用する場合(すなわち、深層学習を利用して予測データ30を生成する場合)、

as a result of learning of the prediction model using training data, a histomorphological feature useful for a prediction is automatically decided among a plurality of histomorphological features.
教師データを利用した予測モデル学習の結果として、複数の組織形態学的特徴の中から、予測に有用な組織形態学的特徴が自動的に決定される。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

不整脈

2022-05-30 05:07:28 | 英語特許散策

US9076202
In critical organs such as the heart, the potential complications of displacing blood with another fluid include
心臓等の重要な器官において血液を他の流体に置換することによって生じる可能性がある合併症には、

ischemia to the target organ and arrhythmias.
標的器官の虚血及び不整脈等が含まれる。

Cardiac arrhythmias may occur as a result of hypoxia if the displacing fluid does not carry adequate oxygen to the myocardium.
置換流体が心筋に適量の酸素を搬送しなければ、低酸素症の結果、心不整脈が生じることもある。

They may also occur due to changes in the concentrations of electrolytes in the myocardium.
また、これらは、心筋内の電解質の濃度の変化に起因して生じる場合もある。

US9427116
[0086] The tools 100 can also include a cycle length computation function that is programmed to compute cycle length from the computed phase signals.
【0051】
  また、ツール100は、計算された位相信号からサイクル長を計算するようにプログラムされるサイクル長計算機能を含んでもよい。

Additionally, the cycle length computation can include computing statistics of cycle length that can vary during a user selected time interval during fibrillation or other arrhythmia
さらに、サイクル長の計算は、細動または他の不整脈が生じているとき、ユーザーが選択した時間間隔の間に変化し得るサイクル長の統計量を計算することを含んでもよい。

US10092763
 In some examples, processing module 110 may use such received information to help determine whether an arrhythmia is occurring, determine a type of arrhythmia, and/or to take particular action in response to the information. 
いくつかの実施形態において、プロセッシングモジュール110は、不整脈が生じているか否かを判定するため及びいかなる種類の不整脈かを判定するため、或いはそれらの少なくともいずれかひとつの動作とともに、受信した情報に反応して特定の動作をとるための一助とするために、受信した情報を使用することが可能である。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

画像を読み出す

2022-05-29 16:35:18 | 英語特許散策

US11094288
[0314] Having received the authentication, the image ID, the client ID and metadata, the “print server” then retrieves the image from a database. 
【0232】
  認証、画像ID、クライアントID、およびメタデータを受信すると、「印刷サーバ」は、次いで、データベースから画像を読み出

US2020178934
A video processor module may store the image frames in an image memory, from which the images are read and displayed.
ビデオプロセッサモジュールは、画像フレームを画像メモリに記憶し、そこから画像を読み出て表示することができる。

The ultrasound imaging system 100 may be a console-based system, a laptop, a handheld or hand-carried system, or any other configuration.
超音波撮像システム100は、コンソールベースのシステム、ラップトップ、ハンドヘルドまたは手持ち式システム、または任意の他の構成であってもよい。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

平面SEM、平面TEM

2022-05-29 14:32:53 | 英語特許散策

US11137663
[0051] FIGS. 18 and 19 are plan view SEM images of the resulting frequency conversion device and original opaque substrate, respectively;
【図18】図18は、生成された周波数変換装置の平面SEM画像である。

US2013201660
FIGS. 7A-7C are top-view SEMs of a sample at three different magnifications. 
【0052】
  図7A~7Cは、3つの異なる倍率で示した試料の平面SEMである。

US9378957
FIGS. 49A and 49B are SEM images of the top surface and of a cross-section, respectively, of sample 1. 
図49A及び49Bは、試料1のそれぞれ平面SEM画像及び断面SEM画像である。

US6986693
FIG. 6 is a top view SEM of a structure made by an embodiment of the method of FIG. 3 in which the wet etch time is long
【図6】湿式エッチング時間の長い、図3の方法の実施形態によって作られた構造の平面SEMである。

US9847487
The plan-view TEM image in FIG. 1(c ) of a similar, but spherulite-free DPASQ:DPSQ blended squaraine layer with a volume ratio of 4:6 that was annealed following the deposition of C60 and PTCBI, showed distinct mottling (arrows), suggesting phase separation. 
【0110】
  図1(c)中の平面TEMは、C60とPTCBIの堆積後にアニール処理された、類似の、しかし無球晶存在のDPASQ:DPSQ(堆積比4:6)ブレンドスクアライン層のイメージであり、相分離を示唆する明確な斑点(矢印)を示した。

US11131039
[0014] FIGS. 3A and 3B are micrographic images illustrating the grain structure of an exemplary diamond film grown on a patterned Si substrate,
【図3】図3Aおよび図3Bは、パターン化されたSi基板上に成長させた例示的なダイヤモンド膜の結晶粒構造を示すマイクログラフィック画像であり、

where FIG. 3A is a plan-view TEM graph of the plane just above the diamond-silicon interface and FIG. 3B is a cross-section TEM graph of diamond-silicon interface.
ここで、図3Aはダイヤモンド-シリコン界面の直上の面の平面TEMであり、図3Bは、ダイヤモンド-シリコン界面の断面TEM像である。

US10777728
[0039] FIG. 8 illustrates an example cross-section TEM of a nanowire with a defect occurring at a random position within the nanowire.
【図8】ナノワイヤ内のランダムな位置で発生する欠陥を有するナノワイヤの例示的な断面TEMを示す。

EP3881349
[0028] Figure 7 is a cross-sectional tunneling electron micrograph (TEM) of a MoSix film selectively deposited on silicon preferentially to other material present on the substrate according to an embodiment described herein.
【図7】本明細書に記載の実施態様による、基板上に存在する他の材料に対して有利にケイ素上に選択的に堆積したMoSi膜の断面トンネル電子顕微鏡写真(TEM)である。

US11130910
[0029] FIG. 9b is a cross-sectional TEM image of an organic-inorganic perovskite layer prepared according to methods described herein in some embodiments having a nanocrystal in matrix morphology.
【0029】
    図9bは、マトリックス形態内にナノ結晶を有する、いくつかの実施形態において本明細書に記載の方法により調製された有機-無機ペロブスカイト層の断面TEM画像である。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

やり直す

2022-05-28 18:53:04 | 英語特許散策

US6735497
The reset command 1574 allows the user to start over or cancel his selection, if the wrong selection had been made.
リセットコマンド1574は、誤った選択が行われた場合に、使用者が選択をやり直か、またはキャンセルできるようにする。

EP1792299
 In the event that the resultant image is not what the user desires, the user is required to undo the effect and redo the selection.
結果の画像が、ユーザが望むものではない場合、ユーザはその効果を取り消し、選択をやり直必要がある。

It will be appreciated that this may be a somewhat slow and tedious process.
これが、やや時間がかかり退屈な処理であろうということは分かるであろう。

Further, the region selection process (e.g., painting the selected region) can be time consuming and inaccurate.
さらに、領域選択処理(例えば、選択された領域を塗ること)は、時間がかかって不正確なことがある。

US2005137847
Alternatively, the GUI generating circuit, routine or application 550 may not display the correct answer and may display the choices again to permit the language learner to make another selection.
または、別の方法として、GUI生成回路、ルーチン、またはアプリケーション550は、正しい解答を表示せずに、前記選択肢をもう一度表示して、言語学習者が選択をやり直せるようにしてもよい。

EP3921273
Generally, a design that is still subject to frequent change may be preferred to be implemented in software, 
一般に、頻繁な変更に依然として晒される設計はソフトウェアにおいて実装されることが好ましい場合があり、

because re-spinning a hardware implementation is more expensive than re-spinning a software design
その理由は、ハードウェア実装形態をやり直すことは、ソフトウェア設計をやり直すことよりも、多くの費用を所要するからである。

US2020205748
However, if the right arm moves, then a notification is given to the operator that the scan may need to be redone with a message to the patient of “it looks like you moved your left arm. Please try to keep it still while the scan is repeated.”
ただし、左腕が移動すると、「左腕を移動させたようです。スキャンが繰り返される間、左腕を動かさないようにしてください」というメッセージを患者に送信し、スキャンやり直す必要があるかもしれないという通知がオペレータに与えられる。

US10999202
Connection load balancer 150 reroutes the connection request to one of the available message processors based on the connection distribution algorithm described above.
接続負荷分散装置150は、上述した接続分散アルゴリズムに基づいて、使用可能なメッセージプロセッサのうちの1つへの接続要求のルーティングをやり直す

US11033952
[0085] In one illustrative example, one or more technical solutions are present that overcome a technical problem with automating the installation of fasteners.
【0119】
  例示的な一実施例において、ファスナの自動設置を実現するにあたり遭遇しうる技術的課題を克服する1つ以上の技術的解決が提供される。

Currently, automated installation processes may encounter alignment issues when attempting to place collars onto lockbolts, which may result in a need to re-attempt installation of the lockbolt.
現状の自動設置プロセスでは、ロックボルトにカラーを配置する際に、アライメントが問題となる可能性があり、この結果、ロックボルトの配置やり直す必要が生じる場合がある。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

半導体積層膜

2022-05-28 17:22:53 | 英語特許散策

US10242892
In specific embodiments, semiconductor LED film stack 207 is a heteroepitaxial III-N semiconductor film stack, for example comprising GaN and/or alloys thereof, such as InGaN.
特定の実施形態では、半導体LED積層膜207はヘテロエピタキシャルIII-N半導体積層膜であり、例えばGaNおよび/またはその合金、例えばInGaNを含む。

The composition of semiconductor LED film stack 207 however is dependent on the desired emission band, and embodiments herein are not limited in that respect.
しかし、半導体LED積層膜207の組成は望ましい発光帯によって決まり、本明細書の実施形態はその点に関し限定しない。

US10392520(JP)
In other words, extremely thin CNT and an extremely thin semiconductor laminated film are formed using the semiconductor type CNT according to the method of preparing a transparent conductive film of the present invention. 
すなわち、半導体型のCNTを用いて、本発明の透明導電膜の作製方法により、極薄のCNTと半導体積層膜を製膜する。

US2021367400(JP)
As a general structure of high power multi-mode semiconductor laser elements, an n-side electrode is disposed on the rear surface of a substrate, and a p-side electrode is disposed on the front surface of a semiconductor laminated film, and is die-bonded in a junction-down configuration to a submount.
高出力マルチモード半導体レーザ素子は、一般的な構成としてn側電極が基板の裏面側、p側電極が半導体積層膜の表面側に配置され、サブマウントに対してジャンクションダウンの状態でダイボンディングが行われる。

Therefore, the p-side electrode is located in a heat radiation path of the semiconductor laser element.
そのため、半導体レーザ素子の放熱経路にp側電極が存在することになる。

US10741696(JP)
[0049] In a first embodiment of the disclosure, in the three-layer channel structure TFT,
【0040】
  本発明の一実施形態では、3層チャネル構造TFTでは、

after the oxide semiconductor layered film including an amorphous oxide semiconductor film is formed between two crystalline oxide semiconductor films, a laminated semiconductor layer is formed by patterning the oxide semiconductor layered film. 
積層半導体層は、2つの結晶質酸化物半導体膜の間に非晶質酸化物半導体膜を有する酸化物半導体積層膜を形成した後、酸化物半導体積層膜のパターニングを行うことによって形成される。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

教師

2022-05-28 14:52:56 | 英語特許散策

US2022084186
[0071] Referring back to FIG. 3, placard and sign recognition requires a predefined classification process, for which module 522 can be used.
[0054]  再度図3を参照して、プラカードおよび標識の認識には、モジュール522を使用することができる既定の分類プロセスが必要となる。

Thus, a training procedure can be employed to train the deep neural network (DNN) model, to identify multiple placards and signs.
つまり、複数のプラカードおよび標識を識別するために、訓練手順を採用して、ディープ・ニューラル・ネットワーク(DNN)モデル訓練することができる。

According to a possible implementation, the DNN will use a labelled training dataset, which references the categories of the pre-defined classes.
可能な実施態様によれば、DNNは、予め定められたクラスのカテゴリを参照する、教師データ集合(labelled training dataset)を使用する。

Preferably, the placard and sign model is updated prior to new classes being posted on the rear end of containers, rendering training a new model from scratch, unnecessary.
 好ましくは、新たなクラスがコンテナの背面端(rear end)上にポストされる前に、プラカードおよび標識モデルを更新し、新たなモデルを最初から訓練することを不要にする。

WO2019125439
[0194] Thus, teacher data for training deep learning AI module 850 may be collected by operating additive manufacturing machine 530 to build parts in the data augmentation mode represented by FIG. 39.
【0152】
  したがって、深層学習AIモジュール850を訓練するための教師データは、図39によって表されるデータ拡張モードでパーツを構築するために付加製造マシン530を動作させることによって集められてもよい。

As may be understood, in particular basic CNN 640 tasked with evaluating in-process build-layer images 630 may be augmented by one or more further CNNs 722 and 732 configured to evaluate images of finished parts acquired post-process as indicated by blocks 720 and 730, respectively.
特に、処理中の構築レイヤ画像630を評価するタスクを課された基本的なCNN640は、ブロック720及び730それぞれによって示すように、処理後に獲得した完成パーツの画像を評価するように構成された1つ又は複数のさらなるCNN722及び732によって拡張されてもよいということが理解され得る。

The actual images 630 may also be collected in a build layer image database 711.
実際の画像630はまた、構築レイヤ画像データベース711に集められてもよい。

US2022036140(JP)
[0259] While the conventional autoencoder may cause overfitting to the training data set,
【0160】
  従来のオートエンコーダでは、教師データに対する過学習が生じてしまうのに対し、

the transformation device 1001 according to the present embodiment does not refer to the training data set when learning the transformation model 1101 and, presumably, overfitting is curtailed thereby.
本実施形態の変換装置1001では、変換モデル1101の学習時には教師データを参照しないため、過学習が抑制されているものと考えられる。

US2022059226(JP)
[0045] Next, the prediction model for the classification problem of whether a subject is in a depressive state is trained by machine learning using the results of 1-1 subjects as supervisory data, the features of the quantiles, standard deviations, and correlation coefficients extracted from the biological data of each subject being an input or an input vector, and the evaluation of the existence or non-existence of depression by an expert such as a doctor for each subject being a label (S 206 ).
【0039】
  次いで、こうして各被験者の生体データから抽出された分位数、標準偏差及び相関係数という特徴量(feature)を入力ないし入力ベクトル、各被験者についての医師等の専門家によるうつ状態の有無(presence  or  absence)の評価をラベルとして、l-1人の結果を教師データとして用いた機械学習により、うつ状態か否かの分類問題の推定モデル訓練する(S206)。

The generated prediction model is stored in the storage unit 102 of the apparatus 100 that performs the prediction using the prediction model, or in a storage medium or storage device accessible from the apparatus 100 .
生成された推定モデルは、当該推定モデルを用いた推定を行う装置100の記憶部102又は装置100からアクセス可能な記憶媒体又は記憶装置に記憶される。

US2020356899
[0166] Any neural network of the present disclosure, such as the domain-adaptive neural network, or such as the detector, the teacher extractor or the student extractor, which will be all discussed later, may be a deep neural network (DNN), learned by any deep learning technique.
[0115] 本開示の任意のニューラルネットワーク、例えば、ドメイン適応ニューラルネットワーク、又は検出器、教師エクストラクタ、又は生徒エクストラクタはすべて後述されるが、任意の深層学習技術によって学習される深層ニューラルネットワーク(DNN)であってもよい。

Deep learning techniques are a powerful set of techniques for learning in Neural Networks (see [19]) which is a biologically-inspired programming paradigm enabling a computer to learn from observational data.
深層学習技術はニューラルネットワークにおける学習のための強力な一連の技術であり([19]参照)、これはコンピュータが観察データから学習することを可能にする生物学的にインスパイアされたプログラミングパラダイム(biologically-inspired programming paradigm)である。

In image recognition, the success of DNNs is attributed to their ability to learn rich midlevel media representations as opposed to hand-designed low-level features (Zernike moments, HOG, Bag-of-Words, SIFT) used in other image categorization methods (SVM, Boosting, Random Forest).
画像認識において、DNNの成功は他の画像分類法(SVM、Boosting、Random Forest)で使用される手で設計された低レベル特徴(Zernikeモーメント、HOG、Bag‐of‐Words、SIFT)とは対照的に、豊富な中レベルメディア表現を学習する能力に起因する。

More specifically, DNNs are focused on end-to-end learning based on raw data.
より具体的には、DNNが生データに基づくエンドツーエンド学習に焦点を当てている。

In other words, they move away from feature engineering to a maximal extent possible, by accomplishing an end-to-end optimization starting with raw features and ending in labels.
言い換えれば、それらは、生の特徴で始まりラベルで終わるエンドツーエンド最適化を達成することによって、可能な最大限まで特徴エンジニアリングから離れる。


[0179] The student extractor is trained with the help of the provided S 300 teacher extractor.
[0128] 生徒エクストラクタは、提供(S300)された教師エクストラクタの助けを借りて訓練される

The teacher extractor is a machine-learned neural network configured for outputting image representations of real scenes.
教師エクストラクタは、実シーンの画像表現を出力するように構成された機械学習ニューラルネットワークである。

In examples, this means that the teacher extractor has been learned on real scenes to output image representations the real scenes, for example by learning robust convolutional filters for real data style.
実施例では、教師エクストラクタが例えば、実データスタイルのためのロバストな畳み込みフィルタを学習することによって、実シーン上で学習されて、実シーンの画像表現を出力するという手段がある。

Layers of neurons of the teacher extractor typically encode the representation of a real image to be outputted.
教師エクストラクタのニューロンの層は、典型的には出力されるべき実画像の表現を符号化する。

The teacher extractor may have been learned on any dataset of real scenes, e.g. available from open source, and by any machine-learning technique.
教師エクストラクタは、例えばオープンソースから利用可能な現実シーンの任意のデータセット上で、及び任意の機械学習技術によって学習されていてもよい。

Providing S 300 the teacher extractor may comprise accessing a database where the teacher extractor has been stored after its leaning and retrieving the teacher extractor from the database.
教師エクストラクタを提供するステップS300は、教師エクストラクタが学習した後に格納されているデータベースにアクセスするステップと、データベースから教師エクストラクタを検索するステップとを含むことができる。

It is to be understood that teacher extractor may be already available, i.e. the domain-adaptive learning method may not comprise the learning of the teacher extractor by only the providing S 300 of the already available teacher extractor.
教師エクストラクタは既に利用可能であってもよく、すなわち、ドメイン適応学習方法は、既に利用可能な教師エクストラクタを提供するステップS300のみによる教師エクストラクタの学習を含まなくてもよいことを理解されたい。

Alternatively, the domain-adaptive learning method may comprise, before the providing S 300 of the teacher extractor, the learning of the teacher extractor, by any machine-learning technique.
あるいは、ドメイン適応学習方法が教師エクストラクタを提供するステップS300の前に、任意の機械学習技術による教師エクストラクタの学習を含むことができる。

US2021034985
[0001] The present disclosure, generally, relates to machine learning, more particularly, to a computer-implemented method, a computer system and a computer program product for unifying models having respective sets of target classes.
【0001】
  本開示は、一般に、機械学習に関し、より詳細には、それぞれのターゲット・クラスの集合を有するモデルを統合するためのコンピュータ実装方法、コンピュータ・システム、およびコンピュータ・プログラム製品に関する。

[0002] The success of the machine learning in classification tasks has been largely enabled by the availability of big datasets.
【背景技術】
【0002】
  分類タスクにおける機械学習の成功は、主に、大きいデータセットの可用性によって実現した。

Having more training data helps to improve accuracy of the classification tasks.
より多くの訓練データを有することは、分類タスクの正確度を高めるのに役立つ。

As the technology becomes more pervasive, data collection is transitioning towards more distributed settings where the data is sourced from multiple entities and then combined to train a classifier in a central node.
技術が普及するにつれて、データ収集は、データが複数のエンティティから提供され、次いで中央ノードで分類器をするために組み合わされるという、より分散された環境へと移行している。

[0003] However, in many cases, transfer of data between entities is limited due to privacy concerns, or resource restrictions such as network resources.
【0003】
  しかしながら、多くの場合、エンティティ間のデータの転送は、プライバシーの懸念またはネットワーク・リソースなどのリソースの制約により制限される。

In addition, each data source may not be able to collect sufficient training data of all target classes due to different data availability.
また、データの可用性が異なるため、各データ・ソースがすべてのターゲット・クラスの訓練データを十分に収集できない場合がある。

These limitations hamper the unification of knowledge from different sources.
これらの制限は、様々なソースからの知識の統合を妨げる。

[0004] This situation has led to multiple works that propose to learn classifiers without directly sharing data.
【0004】
  こうした状況は、データを直接共有せずに分類器を学習することを提案する複数の研究につながった。

Such works include distributed optimization, consensus based training, federated learning, knowledge distillation, and data-free knowledge distillation for deep neural networks.
このような研究には、分散最適化、コンセンサス・ベースの訓練、連合学習、知識蒸留(G. E. Hintonら、「Distilling the Knowledge in a Neural Network」, In NIPS(Neural Information Processing Systems)Deep Learning and Representation Learning Workshop、2015)、ディープ・ニューラル・ネットワークのための無データ知識蒸留(R. G. Lopesら、「Data-free knowledge distillation for deep neural networks」, In NIPS workshop on learning with limited labeled data, 2017)などが含まれる。

However, these conventional approaches assume that target classes of all models are the same.
しかしながら、これらの従来の手法は、すべてのモデルのターゲット・クラスが同じであることを前提としている。

However, there are many cases where it is not possible to make every model to have the same target classes due to data availability, for example.
しかしながら、例えば、データの可用性により、すべてのモデルが同じターゲット・クラスを有するようにできない場合が多い。

 

[0034] First, with reference to a series of FIGS. 1-5,
【0026】
  最初に、一連の図1~図5を参照して、

a computer system and a method for training a student unified model with a plurality of individual teacher models in a framework of knowledge distillation,

in which the student and the teacher models are classifiers with respective target classes and data obtained from the individual teacher classifiers is used to estimate unified soft labels for the student unified classifier, according to exemplary embodiments of the present invention, will be described.
本発明の例示的な実施形態による、生徒モデルおよび教師モデルがそれぞれのターゲット・クラスを有する分類器であり、個別の教師分類器から取得されたデータを使用して生徒統合分類器のための統合ソフト・ラベルを推定する知識蒸留のフレームワークにおいて、

複数の個別の教師モデルを用いて生徒統合モデル訓練するためのコンピュータ・システムおよび方法について説明する。

 

[0053] The unified model training module 134 implements a learning algorithm appropriate for a corresponding architecture of the unified classifier 126 and is configured to train the unified classifier 126 by using the unified soft labels estimated for each transfer data in a supervised manner.
【0045】
  統合モデル訓練モジュール134は、統合分類器126の対応するアーキテクチャに適した学習アルゴリズムを実装し、転送データごとに推定された統合ソフト・ラベルを使用することによって、統合分類器126を教師ありの方式で訓練するように構成される。

When a neural network based model is employed as the unified classifier 126 , backpropagation algorithm may be used.
統合分類器126としてニューラル・ネットワーク・ベースのモデルが採用される場合、逆伝播アルゴリズムが使用されてもよい。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

学習、訓練、教師

2022-05-28 12:06:33 | 英語特許散策

US2021383924
[0161] Further, there are training methods for neural networks, as well as support vector machines, that enable them to be incrementally trained as more data becomes available.
【0146】
  さらに、ニューラルネットワークならびにサポートベクトルマシンには、それらを追加的にトレーニングすることを可能にするトレーニング方法が存在し、こうしたトレーニング方法は、利用可能なデータの増加に伴って行われる。

Incremental learning is a model in which a learning model can continue to learn as new data becomes available, without having to relearn based on the original data and new data.
増分学習は、新たなデータが利用可能になった場合に、元のデータ及び新たなデータに基づいて再学習を行うことなく学習モデルが学習を継続し得るモデルである。

Of course, most learning models, such as neural networks, may be retrained using all data that is available.
当然のことながら、ほとんどの学習モデル(ニューラルネットワークなど)は、利用可能なすべてのデータを使用して再度トレーニングできるものである。

[0162] Still further, the number of internal layers of a neural network may be increased to accommodate deep learning as the amount of data and processing approaches levels where deep learning may provide improvements in diagnosis.
【0147】
  さらに、深層学習が診断の改善を見せ得るレベルへとデータ及び処理の量が近づくことに伴って、深層学習を適応させるためにニューラルネットワークの中間層の数を増やすことができる。

Several machine learning methods have been developed for deep learning.
深層学習については、機械学習方法がいくつか開発されている。

US10970498
[0033] As discussed above, according to some embodiments, the RFID decoding system includes a shallow learning network that generates simulated signals used to train a deep learning network to decode RFID tags.
【0014】
  上述のように、いくつかの実施形態によれば、RFID復号システムは、深層学習ネットワークを訓練してRFIDタグを復号するために使用される模擬信号を生成する、浅い学習ネットワークを含む。

Shallow learning networks typically have one hidden layer, whereas deep learning networks use multiple hidden layers and pooling techniques.
浅い学習ネットワークは、典型的には、1つの隠れ層を有するが、深層学習ネットワークは、複数の隠れ層及びプーリング技術を使用する。

Shallow learners mainly depend on the modelling of features predictions, but deep learners can potentially extract better representations from the data which results in higher accuracy models.
浅い学習器は主に特徴予測のモデリングに依存するが、深層学習器は、データからより良好な表現を抽出する可能性があり、その結果、より高い精度のモデルが得られる。

More generally, the data augmentation processor may comprise any function estimator capable of simulating response signals for variations in one or more reading parameters, wherein a reading parameter may be a transmission parameter associated with transmission of the interrogation signal or a receive parameter associated with reception of the response signal from the RFID tag.
より一般的には、データ拡張プロセッサは、1つ以上の読み取りパラメータにおける変化に対する応答信号をシミュレートすることが可能な任意の関数推定器を備えてもよく、読み取りパラメータは、質問信号の送信に関連する送信パラメータ、又は、RFIDタグからの応答信号の受信に関連する受信パラメータであってもよい。

When the data augmentation processor is a shallow learner, the shallow learning is trained to produce the simulated response signals.
データ拡張プロセッサが浅い学習器である場合、浅い学習は、模擬応答信号を生成するように訓練される。

Both the data augmentation processor and the decoding processor may be trained using supervised learning in which the algorithm iteratively makes predictions on the training data and are corrected by a supervisor until the algorithm achieves an acceptable level of performance.
データ拡張プロセッサ及び復号化プロセッサは両方とも、アルゴリズムが訓練データに対する予測を反復的に行い、アルゴリズムが許容可能なレベルの性能を達成するまで、教師によって修正される教師あり学習を使用して訓練され得る。

According to some embodiments, the training dataset used to train the data augmentation processor is the set of measured test response signals.
いくつかの実施形態によれば、データ拡張プロセッサを訓練するために使用される訓練データセットは、測定されたテスト応答信号のセットである。

US10542143
[0073] In some implementations, the speech-to-text module 126 uses the speech API 128 to convert the audio data into text.
【0054】
  いくつかの実装形態では、スピーチ-テキストモジュール126は、オーディオデータをテキストに変換するためにスピーチAPI128を使用する。

In some examples, the speech API 128 uses machine learning to convert the audio data into text.
いくつかの例では、スピーチAPI128は、オーディオデータをテキストに変換するために機械学習を使用する。

For example, the speech API 128 can use models that accept audio data as inputs.
たとえば、スピーチAPI128は、オーディオデータを入力として受け入れるモデルを使用することができる。

The speech API 128 may use
スピーチAPI128は、

any of a variety of models such as decision trees, linear regression models, logistic regression models, neural networks,
決定木、線形回帰モデル、ロジスティック回帰モデル、ニューラルネットワーク、

classifiers, support vector machines, inductive logic programming, ensembles of models (e.g., using techniques such as bagging, boosting, random forests, etc.),
分類器、サポートベクトルマシン、誘導論理プログラミング、モデルのアンサンブル(たとえば、バギング、ブースティング、ランダムフォレストなどの技法を使用する)、

genetic algorithms, Bayesian networks, etc.,
遺伝的アルゴリズム、ベイジアンネットワークなどの、様々なモデルのうちのいずれかを使用し得、

and can be trained using a variety of approaches, such as deep learning, perceptrons, association rules, inductive logic, clustering, maximum entropy classification, learning classification, etc.
深層学習、パーセプトロン、関連ルール、帰納的論理、クラスタリング、最大エントロピー分類、学習分類などの様々な手法を使用して訓練され得る。

In some examples, the speech API 128 may use supervised learning.
いくつかの例では、スピーチAPI128は教師付き学習を使用し得る。

In some examples, the speech API 128 uses unsupervised learning.
いくつかの例では、スピーチAPI128は教師なし学習を使用する。

In some examples, the speech API 128 can be accessed by the speech-to-text module 126 over a network.
いくつかの例では、スピーチAPI128は、ネットワークを介してスピーチ-テキストモジュール126によってアクセスされ得る。

For example, the speech API 128 can be provided by a remote third party on a cloud server.
たとえば、スピーチAPI128は、クラウドサーバ上の遠隔の第三者によって提供され得る。

US11210346
[0004] Based on the above context, this document describes a computing system that uses specific computing rules or instructions (e.g., a unique algorithm) to predict or generate commands based on a received user input.
【0004】
  上記の背景に基づいて、この文書は受信したユーザ入力に基づいてコマンドを予測又は生成するための特定の演算ルール又は命令(例えば特殊なアルゴリズム)を使用する演算システムを記載する。

To generate the commands, the system is configured to train a predictive model using one or more learning algorithms (e.g., deep learning algorithms).
コマンドを生成するために、システムは1つ以上の学習アルゴリズム(例えば深層学習アルゴリズム)を使用する予測モデルを訓練するように構成される。

The predictive model is used to process terms that are recognized and extracted using a natural language processor (NLP) in an entity module of the system.
予測モデルはシステムのエンティティモジュールの自然言語プロセッサ(NLP)を使用して認識又は抽出される用語を処理するために使用される。

The predictive model can be trained to semantically understand relevant terms (e.g., medical and clinical terms) and their relations to other medical terms.
予測モデルは関連用語(例えば医療用語と臨床用語)と他の医療用語とのこれらの関係とを意味的に理解するように訓練されうる。

Terms can be extracted from information sources such as textbooks and online resources, or from unstructured datasets such as electronic medical data for multiple healthcare patients.
用語は例えば教科書やオンラインリソースのような情報源、又は複数の健康状態患者の電子医療データのような非構造化データセットから抽出されうる。

US2020194224
[0123] In some embodiments, the deep learning model is a generative model.
【0116】
  ある種の実施形態ではその深層学習モデルが生成モデルとされる。

A generative model can be generally defined as a model that is probabilistic in nature.
生成モデルは、一般に、確率的な性質のモデルとして定義することができる。

In other words, a generative model is one that performs forward simulation or rule-based approaches.
言い換えれば、生成モデルは、フォワードシミュレーション又はルールベース法を実行するものである。

The generative model can be learned (in that its parameters can be learned) based on a suitable training set of data.
生成モデルの学習(ひいては諸パラメータの学習)は適切な訓練セットのデータに基づき行うことができる。

In one embodiment, the deep learning model is configured as a deep generative model.
一実施形態に係る深層学習モデルは深層生成モデルとして構成される。

For example, the model may be configured to have a deep learning architecture in that the model may include multiple layers, which perform a number of algorithms or transformations.
例えば、そのモデルを、深層学習アーキテクチャを呈するように構成すること、ひいてはそのモデルに複数個の層を設けそれらにより多数のアルゴリズム又は変換が実行されるようにすることができる。

 

US20200169593
[0029] Machine learning is a field of study that gives computers the ability to learn without being explicitly programmed.
【0017】
  機械学習は、明示的にプログラムされずにコンピュータに学習する能力を与える学習分野である。

Machine learning explores the study and construction of algorithms, also referred to herein as tools, which may learn from existing data and make predictions about new data.
機械学習はアルゴリズムの研究及び構築を探求するものであり、それらは本明細書ではツール(tools)とも呼ばれ、既存のデータから学習し、新しいデータについて予測することができる。

Such machine-learning tools operate by building a model from example training data 112 in order to make data-driven predictions or decisions expressed as outputs or assessments 120 .
このような機械学習ツールは、例示的な訓練データ112からモデルを構築することによって動作し、データ駆動型の予測又は決定をアウトプット又は評価120として表現する。

Although example embodiments are presented with respect to a few machine-learning tools, the principles presented herein may be applied to other machine-learning tools.
例示的な実施形態が、少数の機械学習ツールに関して提示されているが、ここに提示された原理は、他の機械学習ツールに適用することができる。

 

[0040] Each model develops a rule or algorithm over several epochs by varying the values of one or more variables affecting the inputs to more closely map to a desired result, but as the training dataset may be varied, and is preferably very large, perfect accuracy and precision may not be achievable.
【0028】
  各モデルは、入力に影響する1つ以上の変数の値を、所望の結果にもっと近似的にマッピングするように変化させることによって、数エポックにわたってルール又はアルゴリズムを開発するが、訓練データセットを変化させることができ、好ましくは非常に大きく、完全な精度及び精度を達成することができない。

A number of epochs that make up a learning phase, therefore, may be set as a given number of trials or a fixed time/computing budget, or may be terminated before that number/budget is reached when the accuracy of a given model is high enough or low enough or an accuracy plateau has been reached.
従って、学習フェーズを構成する多数のエポックは、所与の試行回数又は固定時間/計算予算として設定され得るか、又は所与のモデルの精度が十分に高いか、又は十分に低い場合、又は精度のプラトーに到達した場合、その数/予算に到達する前に終了され得る。

For example, if the training phase is designed to run n epochs and produce a model with at least 95% accuracy, and such a model is produced before the nth epoch, the learning phase may end early and use the produced model satisfying the end-goal accuracy threshold.
例えば、訓練フェーズがn個のエポックを実行し、少なくとも95%の精度を有するモデルを生成するように設計され、そのようなモデルがn番目のエポックより前に生成される場合、学習フェーズは早期に終了し、最終目標精度閾値を満足する生成モデルを使用することができる。

Similarly, if a given model is inaccurate enough to satisfy a random chance threshold (e.g., the model is only 55% accurate in determining true/false outputs for given inputs), the learning phase for that model may be terminated early, although other models in the learning phase may continue training.
同様に、与えられたモデルがランダムな偶然の閾値を満たすのに十分に不正確である場合(例えば、与えられた入力に対する真/偽の出力を決定する際に、モデルがわずか55%の正確さしかない場合)、そのモデルの学習フェーズは早期に終了してもよいが、学習フェーズの他のモデルは訓練を継続してもよい。

Similarly, when a given model continues to provide similar accuracy or vacillate in its results across multiple epochs—having reached a performance plateau—the learning phase for the given model may terminate before the epoch number/computing budget is reached.
同様に、所与のモデルが複数のエポックにわたって同様の精度を提供し続けるか、又はその結果にバラツキがある場合(パフォーマンスのプラトーに達した場合)、所与のモデルの学習フェーズは、エポック数/計算予算に到達する前に終了することができる。

EP3941333
[00199] In summary, construction of a NN machine learning model may include a learning (or training) stage and a classification (or operational) stage.
【0158】
  概略すると、NN機械学習モデルの構成は、学習(又は訓練)ステージと分類(又は演算)ステージを含んでいてよい。

In the learning stage, the neural network may be trained for a specific purpose and may be provided with a set of training examples, including training (sample) inputs and training (sample) outputs, and optionally including a set of validation examples to test the progress of the training.
学習ステージでは、ニューラルネットワークは特定の目的のために訓練されてよく、また訓練例の集合が提供されてよく、これには訓練(サンプル)入力及び訓練(サンプル)出力が含まれ、任意選択により、訓練の進行状況を試験するためのバリデーションの例の集合が含まれる。

During this learning process, various weights associated with nodes and node-interconnections in the neural network are incrementally adjusted in order to reduce an error between an actual output of the neural network and the desired training output.
この学習プロセス中、ニューラルネットワーク内のノード及びノード相互接続に関係付けられる各種の重みが徐々に調整されて、ニューラルネットワークの実際の出力と所望の訓練出力との間のエラーが縮小される。

In this manner, a multi-layer feed-forward neural network (such as discussed above) may be made capable of approximating any measurable function to any desired degree of accuracy.
このようにして、多層フィードフォワードニューラルネットワーク(例えば前述のもの)は、何れの測定可能関数を何れの所望の精度までも概算できるかもしれない。

The result of the learning stage is a (neural network) machine learning (ML) model that has been learned (e.g., trained).
学習ステージの結果として得られるのは、学習した(例えば、訓練済みの)(ニューラルネットワーク)機械学習(ML)である。

In the operational stage, a set of test inputs (or live inputs) may be submitted to the learned (trained) ML model, which may apply what it has learned to produce an output prediction based on the test inputs. 
演算ステージで、試験入力(又はライブ入力)の集合が学習済み(訓練済み)MLモデルに提供されてよく、それが学習したことを応用して、試験入力に基づいて出力予測を生成するかもしれない。

US2021312697
[0190] Supervised learning is a learning method in which training is performed as a mediated operation, such as when the training dataset 1102 includes input paired with the desired output for the input, or where the training dataset includes input having known output and the output of the neural network is manually graded.
【0190】
  教師あり学習とは、訓練データセット1102が入力に対する所望の出力と組み合わされた入力を含む場合、又は訓練データセットが既知の出力を有する入力を含み、ニューラルネットワークの出力が手動で格付けされる場合などに、訓練が仲介オペレーションとして行われる学習方法である。

The network processes the inputs and compares the resulting outputs against a set of expected or desired outputs. Errors are then propagated back through the system.
ネットワークは入力を処理し、得られた出力を、期待される出力又は所望の出力のセットと比較する。次に誤差は、システムを通じて後方に伝搬される。

The training framework 1104 can adjust to adjust the weights that control the untrained neural network 1106 .
訓練フレームワーク1104は、訓練前のニューラルネットワーク1106を制御する重みを調整するように調整できる。

The training framework 1104 can provide tools to monitor how well the untrained neural network 1106 is converging towards a model suitable to generating correct answers based on known input data.
訓練フレームワーク1104は、訓練前のニューラルネットワーク1106が、既知の入力データに基づいて、正解を生成するのに好適なモデルに向かってどの程度収束しているかを監視するツールを提供できる。

The training process occurs repeatedly as the weights of the network are adjusted to refine the output generated by the neural network.
ニューラルネットワークにより生成される出力を改善するためにネットワークの重みが調整されると、訓練プロセスが繰り返し行われる。

The training process can continue until the neural network reaches a statistically desired accuracy associated with a trained neural net 1108 .
ニューラルネットワークが、訓練済みのニューラルネット1108と関連づけられた統計的に所望の精度に達するまで、訓練プロセスは継続してよい。

The trained neural network 1108 can then be deployed to implement any number of machine learning operations to generate an inference result 1114 based on input of new data 1112 .
次いで、訓練済みのニューラルネットワーク1108は、新たなデータ1112の入力に基づいて推論結果1114を生成する任意の数の機械学習操作を実装するために展開されてよい。

[0191] Unsupervised learning is a learning method in which the network attempts to train itself using unlabeled data.
【0191】
  教師なし学習とは、ネットワークがラベルなしデータを用いて自ら訓練を試みる学習方法である。

Thus, for unsupervised learning the training dataset 1102 will include input data without any associated output data.
したがって教師なし学習の場合、訓練データセット1102は、関連づけられた出力データを何も持たない入力データを含むことになる。

The untrained neural network 1106 can learn groupings within the unlabeled input and can determine how individual inputs are related to the overall dataset.
訓練前のニューラルネットワーク1106は、ラベルなし入力のグループ分けを学習でき、個々の入力がどれだけデータセット全体に関連しているかを判定できる。

Unsupervised training can be used to generate a self-organizing map, which is a type of trained neural network 1108 capable of performing operations useful in reducing the dimensionality of data.
教師なし訓練は、自己組織化マップを生成するのに用いられてよく、これは、データの次元を削減する際に役立つ操作を実行できる訓練済みのニューラルネットワーク1108の一種である。

Unsupervised training can also be used to perform anomaly detection, which allows the identification of data points in an input dataset that deviate from the normal patterns of the data.
教師なし訓練は、異常検出を行うのにも用いられてよく、これにより、データの通常のパターンから外れた入力データセット内のデータ点を識別するのが可能になる。

US10576380
[0001] The present disclosure is related to artificial intelligence (AI) model training, and more specifically to
【0001】
  本開示は、人工知能(AI)モデルの訓練あるいはトレーニングに関し、より詳細には、

using a network of server consoles of a game cloud system to farm training data associated with remote players, the training data used for AI model training.
ゲームクラウドシステムのサーバコンソールのネットワークを使用して、リモートプレーヤに関連する訓練データを集めることに関しており、訓練データはAIモデルの訓練に使用される。

BACKGROUND OF THE DISCLOSURE
【背景技術】

[0002] Artificial intelligence algorithms are designed to learn from data.
【0002】
  人工知能アルゴリズムは、データから学習するように設計されている。

An AI model can be built based on the learned data, and is flexible enough to perform multiple functions depending on the input provided to the AI model.
AIモデルは、学習されたデータに基づいて構築することができ、AIモデルに与えられる入力に応じて複数の機能を実行するのに十分な柔軟性を有する。

[0003] However, providing the data to train an AI model is complex.
【0003】
  しかし、AIモデル訓練するためのデータの提供は複雑である。

In a less than straightforward example, an AI model configured for recognizing objects is trained using a vast number of object images.
簡単ではない例では、物体を認識するために構成されるAIモデルは、膨大な数の物体画像を使用して訓練される。

For example, a vast number of object images are used for training the AI model.
例えば、膨大な数の物体画像がAIモデルの訓練に使用される。

Generation and collection of those images is difficult and very time consuming. Basically, the AI model is trained to recognize every type of object that exists.
これらの画像の生成と収集は難しく、非常に時間がかかる。基本的に、AIモデルは、存在するあらゆる種類の物体を認識するように訓練される。

Imagine trying to collect for each object multiple images of that object that are taken from different perspectives.
物体ごとに、違う視点から撮られた、その物体の複数の画像を収集しようとすることを想像されたい。

In that manner, when presented with a new image of an object, the AI model can extract various identifying characteristics (e.g., outline, color, features, size, etc.) to determine if those characteristics match those of a learned object.
そのようにして、AIモデルに物体の新しい画像が提示されると、AIモデルは様々な識別特性(例えば、輪郭、色、特徴、サイズなど)を抽出して、それらの特性が学習した物体の特性と一致するかどうかを判断することができる。

The number of objects is limitless, and various views of those objects are also limitless.
物体の数は無限であり、それらの物体の様々な見方も無限である。

As such, the training of the AI model to recognize objects can be an ongoing process.
そのため、物体を認識するためのAIモデルの訓練は、継続的なプロセスとなり得る。

 

For example, the modeler 120 within the deep learning engine 190 may operate to set the parameters defined within the deep learning engine 190 that define the various nodes in the input layer 191 , hidden layers 192 , and output layer 193 , for purposes applying the trained AI model 160 within the deep learning engine 190 .
 例えば、深層学習エンジン190内のモデラ120は、訓練されたAIモデル160を深層学習エンジン190内で適用する目的のために、入力層191、隠れ層192、及び出力層193の様々なノードを定義する深層学習エンジン190内で定義されたパラメータを設定するように動作し得る。

The modeler 120 may set the parameters in the AI model 160 based on one or more success criteria used during training, as previously described.
モデラ120は、上記のとおり、訓練中に使用される1つ以上の成功基準に基づいて、AIモデル160のパラメータを設定することができる。

In that manner, the AI model 160 is trained to learn the intricacies of the gaming application and/or the intricacies of playing the gaming application so that the AI model 160 can be used to provide various functionalities in relation to the gaming application and/or a game play of the gaming application
そのようにして、AIモデル160は、ゲームアプリケーション及び/またはゲームアプリケーションのゲームプレイに関連して様々な機能性を提供するためにAIモデル160を使用することができるように、ゲームアプリケーションの複雑な細部及び/またはゲームアプリケーションのプレイの複雑な細部を学習するように訓練される。

(e.g., predicting and/or determining what actions, to include controller inputs, to take in response to a given condition, such as game state).
(例えば、ゲーム状態などの所与の状況に応答して、コントローラ入力を含む、どのようなアクションを取るべきかを予測及び/または決定する)。

As such, the analyzer 140 is able to analyze the output from the AI model 160 responding to input defining a condition of a game play, and optionally the input (e.g., input state data), in order to provide an appropriate response to the condition,
したがって、分析器140は、状況への適切な応答を提供するために、ゲームプレイの状況を定義する入力を受けて、AIモデル160からの出力、及び任意選択で入力(例えば、入力状態データ)を分析することができる。

wherein the response may be dependent on a predefined objective (e.g., provide assistance, providing coaching, etc.).
 ここで応答は、予め定義された目的(例えば、支援の提供、指導の提供など)に依存し得る。

 

For example, for a given set of training state data, such as for a training instance, a learned output of the AI model 160 may be analyzed by the analyzer 140 to determine the next set of controller inputs for controlling the corresponding game play.
例えば、訓練インスタンスなどの所与の訓練状態データのセットについて、AIモデル160の学習済み出力が、対応するゲームプレイを制御するためのコントローラ入力の次のセットを決定するために、分析器140によって分析されてもよい。

US2020348628
[0003] To improve the control of a system of interest, a hybrid controller may be provided that includes both dynamic components (e.g., filters or other dynamic controller elements) and components that have been specified to model the system under control (e.g., a learned system model trained based on observed past behaviors of the system under control).
【0003】
  対象のシステムの制御を改善するために、動的構成要素(例えば、フィルタまたはその他の動的コントローラ要素)と、制御対象システムをモデリングするために指定された構成要素(例えば、制御対象システムの観測された過去の挙動に基づいて訓練された学習済みシステムモデル)との両方を含むハイブリッドコントローラが提供され得る。

Such a hybrid controller may provide better outputs, with respect to controlling the output of the system or with respect to some other operational parameter of interest, relative to alternative controllers that only include dynamic elements or system-modeling elements.
このようなハイブリッドコントローラは、動的要素またはシステムモデリング要素のみを含む代替コントローラと比較して、システムの出力を制御することに関して、または他のいくつかの対象動作パラメータに関して、出力を向上させることができる。

Hybrid controllers may also be implemented cost-effectively and with minimal compute resources (e.g., cycles, memory, cores).
また、ハイブリッドコントローラは、コスト効率良く、計算リソース(例えば、サイクル、メモリ、コア)を最小限に抑えて実施することもできる。

Hybrid controllers are able to generate control outputs that may take into account learned information about the complex structure of the controlled system (via the system-modeling component) while also providing certain formal guarantees regarding the performance of the hybrid controller (due to the presence of the analytically-tractable dynamic component).
ハイブリッドコントローラは、その性能に関して(分析的に扱いやすい動的構成要素の存在のため)特定の形式的な保証を提供しながらも、被制御システムの複合体構造に関する学習済み情報を(システムモデリング構成要素を介して)考慮に入れ得る制御出力を生成することができる。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

正答率

2022-05-28 11:38:27 | 英語特許散策

US2019159716
[0165] In a non-limiting example, the hit rate
【0156】
  非限定的な一例において、正答率は、

may be defined as

the number of correct responses to a target stimuli divided by the total number of target stimuli presented, or the false alarm rate (e.g., the number of responses to a distractor stimuli divided by the number of distractor stimuli presented),
与えられたターゲット刺激の総数で除算されたターゲット刺激への正しい応答の数、またはお手つき率(たとえば、与えられた阻害刺激の数で除算された阻害刺激への応答の数)、

the miss rate (e.g., the number of nonresponses to a target stimuli divided by the number of incorrect responses, including the nonresponses to a target stimuli added to the number of responses to a distractor stimuli),
誤答率(たとえば、阻害刺激への応答の数に加算されたターゲット刺激への無応答を含む、不正な応答の数で除算されたターゲット刺激への無応答の数)、

the correct response rate (the proportion of correct responses not containing a signal).
正応答率(信号を含まない正しい応答の割合)

として定義されてよい。

In an example, the correct response rate may be calculated as the number of non-responses to the distractor stimuli divided by the number of non-responses to the distractor stimuli plus the number of responses to the target stimuli.
一例において、正応答率は、阻害刺激への無応答の数を阻害刺激への無応答の数+ターゲット刺激への応答の数で除算した値として計算され得る。

US9940844
[0000] Difficulty Level
【0109】
難度

[0124] Under the control of system 100 , the difficulty level may preferably change or remain the same inter-trial and/or intra-session.
システム100の制御下で、難度は、好ましくは、試験間で、かつ/またはセッション内で変化してもよく、または同じままとしてもよい。

The difficulty level of each trial and/or a series of trials in a session can differ among trials and/or sessions.
各試験および/またはセッション内の一連の試験の難度は、試験間および/またはセッション間で異なっていてもよい。

If an individual achieves a threshold level of success (e.g. a pre-determined percentage of correct responses), the difficulty of the trial may be increased relative to the previous trial.
個人が閾値レベルの成功(例えば所定の正答率)を達成した場合、試験の難しさを前の試験と比べて増加させてよい。

US9715621
[0090] At block 604 , the processor 300 may employ the user verification module 336 to identify an amount of time that the user 105 has viewed class materials for the identified class.
【0090】
  ブロック604において、プロセッサ300は、ユーザ検証モジュール336を採用し得、ユーザ105が、識別されたクラスに関するクラス資料を視聴した時間を識別する。

For example, the user verification module 336 may evaluate the records for the user 105 in the academic records file 330 to determine the amount and/or amount of time the user 105 has viewed class materials (e.g., lectures, labs, discussion sessions and boards, etc.) for the class.
例えば、ユーザ検証モジュール336は、学業成績ファイル330におけるユーザ105に関する成績を評価し得、ユーザ105が、クラスに関するクラス資料(例えば、講義、実験、議論セッション及びボード等)を視聴した量及び/又は時間を判断する。

At block 606 , the processor 300 may employ the user verification module 336 to identify the user's success rate (e.g., percentage correct) for practice questions, practice tests, and questions presented during the viewing of course lectures for the identified class. 
ブロック606において、プロセッサ300は、ユーザ検証モジュール336を採用し得、識別されたクラスに関する講座を視聴中に提示される、練習問題、練習テスト、及び質問に関するユーザの成功率(例えば、正答率)を識別する。

US10898131
[0060] The therapy session continues by(*through the means of; as a result of; through)resetting the value of N to a new positive integer value based at least in part on the plurality of scores ( 322 ).
【0055】
  治療セッションは、複数のスコアに少なくとも部分的に基づいて、Nの値を新しい正の整数値にリセットすることによって継続される(322)。

In some embodiments, resetting of the positive integer N is based at least in part on the percentage of correct responses from the subject to the query as compared to the total number of response ( 324 ).
いくつかの実施形態では、正の整数Nのリセットは、反応の総数に対する問合せへの患者からの正しい反応の割合に少なくとも部分的に基づく(324)。

In some embodiments, N is reset to N+Q if the percentage of correct responses is greater than a first threshold percentage, is reset to N−Q if the percentage of correct responses is less than a second threshold percentage and does not reset if the percentage of correct responses is between the first and second threshold percentage.
いくつかの実施形態では、正答率が第1閾値パーセンテージよりも大きい場合、NはN+Qにリセットされ、正答率が第2閾値パーセンテージよりも小さい場合はN-Qにリセットされ、正答率が第1および第2閾値パーセンテージの間にある場合は、リセットされない。

Typically, Q if the value “1”, though other values are possible (e.g., 2, 3, 4, or any value less than N).
一般的にQの値は「1」であるが、他の値(例えば、2,3,4またはN未満の任意の値)も可能である。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

当ブログの例文について

本ブログの「特許英語散策」等題した部分では、英語の例文を管理人の独断と偏見で収集し、適宜訳文・訳語を記載しています。 訳文等は原則として対応日本語公報をそのまま写したものです。私個人のコメント部分は(大抵)”*”を付しています。 訳語は多数の翻訳者の長年の努力の結晶ですが、誤訳、転記ミスもあると思いますのでご注意ください。