和英特許翻訳メモ

便利そうな表現、疑問、謎、その他メモ書き。思いつきで書いてます。
拾った用例は必ずしも典型例、模範例ではありません。

データを合成

2023-09-26 22:05:48 | 英語特許散策

US2022215266(BOSTON POLARIMETRICS INC [US])
[0147] In some embodiments, the synthesized DOLP ρ and AOLP ϕ data are
【0133】
  いくつかの実施形態では、合成されたDOLPρおよびAOLPφデータは、

rendered into color images by applying a colormap such as the “viridis” colormap or the “Jet” colormap
「viridis」カラーマップや「Jet」カラーマップなどのカラーマップを適用することによってカラー画像にレンダリングされる

(see, e.g., Liu, Yang, and Jeffrey Heer. “Somewhere over the rainbow: An empirical assessment of quantitative colormaps.” Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. 2018.).
(例えば、Liu,Yang,およびJeffrey  Heer、「Somewhere  over  the  rainbow:An  empirical  assessment  of  quantitative  colormaps」、Proceedings  of  the  2018  CHI  Conference  on  Human  Factors  in  Computing  Systems、2018を参照)。

These color mapped versions of the synthesized tensors in polarization space
偏光空間において合成されたテンソルのこれらのカラーマップバージョンは、

may be more easily supplied as input for retraining a pre-trained machine learning model such as convolutional neural network.
畳み込みニューラルネットワークなどの事前訓練済みの機械学習モデルを再訓練するための入力として、より簡単に提供されることができる。

In some embodiments, when synthesizing DOLP ρ and AOLP ϕ data, random colormaps are applied to the various synthesized data such that the synthesized training data set includes color images representing DOLP ρ and AOLP ϕ data in a variety of different colormaps, such that, at inference time, the network will be able to perform predictions without regard to the particular colormap used to encode the real DOLP ρ and AOLP data. 
いくつかの実施形態では、推論時に、ネットワークが実際のDOLPρおよびAOLPφデータを符号化するために使用される特定のカラーマップに関係なく予測を実行することができるように、DOLPρおよびAOLPφデータを合成するとき、ランダムカラーマップは、合成された訓練データセットが様々な異なるカラーマップにおいてDOLPρおよびAOLPφデータを表すカラー画像を含むように、様々な合成データに適用される。

US20211138428(QUALCOMM INC [US])
Video decoder 300 may then inverse scan the reproduced coefficients (376), to create a block of quantized transform coefficients. 
次いで、ビデオデコーダ300は、量子化された変換係数のブロックを作成するために、再生された係数を逆走査し得る(376)。

Video decoder 300 may then inverse quantize and inverse transform the transform coefficients to produce a residual block (378).
次いで、ビデオデコーダ300は、残差ブロックを生成するために、変換係数を逆量子化および逆変換し得る(378)。

Video decoder 300 may ultimately decode the current block by combining the prediction block and the residual block (380).
ビデオデコーダ300は、予測ブロックおよび残差ブロックを合成することによって、現在のブロックを最終的に復号し得る(380)。

///////////

Moreover, for bi-directional inter-prediction, motion compensation unit 224 may retrieve data for two reference blocks identified by respective motion vectors and combine the retrieved data, e.g., through sample-by-sample averaging or weighted averaging.
さらに、双方向インター予測の場合、動き補償ユニット224は、それぞれの動きベクトルによって識別された2つの参照ブロックのためのデータを取り出し、たとえば、サンプルごとの平均化または重み付けされた平均化によって、取り出されたデータを合成し得る。

Motion estimation unit 222 and motion compensation unit 224 may be configured to code blocks using MERs as described above.
動き推定ユニット222および動き補償ユニット224は、上記で説明したように、MERを使用してブロックをコーディングするように構成され得る。

[0106] As another example, for intra-prediction, or intra-prediction coding, intra prediction unit 226 may generate the prediction block from samples neighboring the current block.
【0099】
  別の例として、イントラ予測またはイントラ予測コーディングの場合、イントラ予測ユニット226は、現在のブロックに隣接するサンプルから予測ブロックを生成し得る。

For example, for directional modes, intra-prediction unit 226 may generally mathematically combine values of neighboring samples and populate these calculated values in the defined direction across the current block to produce the prediction block. 
たとえば、方向モードの場合、イントラ予測ユニット226は、一般に、隣接サンプルの値を数学的に合成し、これらの計算された値を現在のブロックにわたる定義された方向にポピュレートして、予測ブロックを生成し得る。

US11367018(ORACLE INT CORP [US])

[0045] In one embodiment, the body of test data is synthesized data generated based on historical data compiled by, for example, the on-premise server 151 .
【0049】
  一実施形態において、テストデータのボディは、たとえばオンプレミスサーバ151によってコンパイルされた履歴データに基づいて生成された合成データである。

Automated scoping tool 103 may include a signal synthesis module (not shown).
自動スコーピングツール103は、信号合成モジュール(図示せず)を含み得る。

/////////

[0089] In one embodiment, the signal synthesis module analyzes the historical data and generates mathematical formulae which can be used to generate test data statistically identical to the historical data.
【0092】
  一実施形態において、信号合成モジュールは、履歴データを分析し、履歴データと統計的に同一のテストデータを生成するために使用することができる数式を生成する。

The signal synthesis module stores the mathematical formulae in a data store associated with the automated scoping tool 103 .
信号合成モジュールは、自動スコーピングツール103に関連付けられたデータストアに数式を格納する。

The signal synthesis module generates synthesized test data on an as-required basis for use by the test application 133 during execution by the target cloud container stack 101 .
信号合成モジュールは、ターゲットクラウドコンテナスタック101による実行中のテストアプリケーション133による使用のために、必要に応じて合成テストデータを生成する。

The use of mathematical formulae to synthesize data on an as-required basis has an advantage over use of a body of historical or synthesized test data in terms of required storage and portability
必要に応じてデータを合成するための数式を使用することには、必要とされるストレージおよび可搬性の観点から、履歴または合成されたテストデータのボディの使用に勝る利点があり、

—the body of test data can be several terabytes of data, while the mathematical formulae may be only a few kilobytes.
テストデータのボディは、数テラバイトのデータであり得るが、数式はわずか数キロバイトの可能性がある。

US2022256701(DOLBY LABORATORIES LICENSING CORP [US])
[0070] In certain embodiments, method 900 further includes steps 902 904 , and 906 , each of which may be performed by an HDR image sensor such as HDR image sensor 110 .
【0051】
  或る特定の実施形態において、方法900は、ステップ902、904および906を更に含み、それらのそれぞれは、HDR画像センサ110等のHDR画像センサによって実施され得る。

Step 902 captures raw image data at a capture bit depth.
ステップ902は、取込みビット深度でロー画像データを取り込む。

In one example of step 902 , pixel array 210 (in cooperation with ADC 212 ) captures digital image data 281 .
ステップ902の1つの例では、画素アレイ210は(ADC212と協働して)デジタル画像データ281を取り込む。

Step 904 merges the raw image data to form an HDR image at a pre-tone-compression bit depth.
ステップ904は、ロー画像データを合成して、階調圧縮前ビット深度でHDR画像を形成する。

In one example of step 904 , HDR merger 214 merges digital image data 281 , obtained at two or more different exposure settings, to form pre-tone-compression HDR image 282 
ステップ904の1つの例では、HDR合成器214は、2つ以上の異なる露光設定で得られたデジタル画像データ281を合成して、階調圧縮前HDR画像282を形成する。

US11153583(QUALCOMM INC [US])
As another example, if the motion vector has fractional sample precision, motion compensation unit 224 may interpolate values for the prediction block according to one or more interpolation filters.
別の例として、動きベクトルがフラクショナルサンプル精度を有する場合、動き補償ユニット224は、1つまたは複数の補間フィルタに従って予測ブロックのための値を補間し得る。

Moreover, for bi-directional inter-prediction, motion compensation unit 224 may retrieve data for two reference blocks identified by respective motion vectors and combine the retrieved data, e.g., through sample-by-sample averaging or weighted averaging.
さらに、双方向インター予測の場合、動き補償ユニット224は、それぞれの動きベクトルによって識別された2つの参照ブロックのためのデータを取り出し、たとえば、サンプルごとの平均化または重み付けされた平均化によって、取り出されたデータを合成し得る。

US11545142(GOOGLE LLC [US])
[0060] In some implementations, synthetic training datasets 195 can be created by generating sentences with a variety of proper nouns and then synthesizing corresponding audio data.
【0062】
  いくつかの実装形態において、様々な固有名詞を有する文章を生成し、次いで、対応するオーディオデータを合成することによって、合成トレーニングデータ195を作成することができる。

This technique can greatly expand the number of audio-text pairs that can be used as training examples.
この技法は、トレーニング例として使用することができるオーディオ-テキストペアの数を大幅に増やすことができる。

In some implementations, the generated text and synthesized audio are determined for specific domains or categories.
いくつかの実装形態において、生成されたテキストおよび合成されたオーディオは、特定のドメインまたはカテゴリに対して決定される。

For example, category-specific prefixes and proper nouns can be combined to generate the example text. 
たとえば、例示的なテキストを生成するために、カテゴリ固有の接頭辞と固有名詞とを組み合わせることができる。

//////////

[0073] Implementations discussed above
【0075】
  上記で論じられている実装形態は、

address early pruning of contextual n-grams by

performing biasing at the sub-word unit level (grapheme, wordpiece) rather than the word-level,
単語レベルではなく部分語単位レベル(書記素、単語断片)においてバイアスを実行し、

applying the contextual FST 160 before beam pruning rather than after,
ビーム剪定後ではなくビーム剪定前にコンテキストFST160を適用し、

incorporating a prefix FST 163 having a common set of prefixes (e.g., “call”, “text”) to help tremendously with anti-context, and leveraging a larger corpus of text-only data to improve modeling of proper nouns.
アンチコンテキストに非常に役立つように接頭辞の共通のセット(たとえば、「call」、「text」)を有する接頭辞FST163を組み込み、固有名詞のモデル化を改善するためにテキストのみのデータのより大きいコーパスを活用する

ことによって、コンテキストn-gramの早期の剪定に対処する。

Specifically, the modeling of proper nouns includes: (1) obtaining synthetic training datasets 195 by creating a large number of proper noun text-only queries, and synthesizing corresponding speech;
具体的には、固有名詞のモデル化は、(1)多数の固有名詞のテキストのみのクエリを作成し、対応する音声を合成することによって、合成トレーニングデータセット195を作成することと、

(2) leveraging a large amount of unsupervised audio-text data (e.g., unsupervised training data 193 ), filtered to keep data with proper nouns; and
(2)固有名詞を有するデータを維持するようにフィルタリングされた大量の教師なしオーディオ-テキストデータ(たとえば、教師なしトレーニングデータ193)を活用することと、

(3) fuzzing supervised training data 197 transcripts to create more proper nouns. Results are reported across four different contextual test sets. Proposed changes to the FST construction lead to significant improvements in shallow-fusion based biasing. 
(3)より多くの固有名詞を作成するために教師ありトレーニングデータ197のトランスクリプトをファジングすることとを含む。

US2022132095(GOOGLE LLC [US])
[0046] A single device (e.g., any of client devices 120 - 126 ) that is used for image capture may include one or more cameras or imaging sensors.
【0040】
  画像撮影のために用いられる1つのデバイス(たとえば、クライアントデバイス120~126のうちのいずれか)は、1つ以上のカメラまたは1つ以上のイメージセンサを備えてもよい。

For example, a device may include one or more cameras (e.g., RGB cameras) that can be used to capture a color image, an infrared camera, etc.
たとえば、あるデバイスは、カラー画像を撮影するために使用できる1つ以上のカメラ(たとえば、RGBカメラ)、赤外線カメラなどを備えてもよい。

For example, the one or more cameras may include cameras with different configurations, e.g., a telephoto camera, a wide angle camera, etc.
たとえば、当該1つ以上のカメラは、望遠カメラ、広角カメラなど、それぞれ異なる構成を有するカメラを含んでもよい。

Other configurations of cameras may also be used. Each camera may generate a corresponding image.
カメラのその他の構成が使われてもよい。各カメラは、対応する画像を生成してもよい。

In some implementations, image data obtained from different cameras of a device may be combined to obtain a primary image.
いくつかの実施態様では、デバイスが備えるそれぞれ異なるカメラから取得した画像データを合成して主画像を取得してもよい。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

スポット光

2023-09-26 08:56:24 | 英語特許散策

EP2479262(ADVANCED CELL TECH INC [US])
[0100] As in Lund et al. (2001) Proc. Natl. Acad Sci, USA 98: 9942-47 , threshold responses to illumination of visual receptive fields from the superior colliculus at 100 days are to be recorded.
【0099】
  Lund  et  al.(2001)  Proc.Natl.Acad.Sci.USA  98:9942-47におけるように、100日における上丘からの視覚受容場の照明に対する閾値応答を記録すべきである。

Animals are to be placed under terminal urethane anesthesia (1.25 g/kg i.p.).
動物は末端ウレタン麻酔(1.25g/kg/i.p.)下におくべきである。

Data is to be collected over the entire visual field at independent points spaced roughly 200 µm apart, with each point corresponding to about 10-15° displacements in the visual field. 
データはおよそ200μm空間的に離れた独立した点において全視野にわたって収集すべきであり、各点は視野における約10ないし15°変位に対応する。

Visual thresholds are to be measured as the increase in intensity over background and maintained at 0.02 cd/m2 [at least 2.6 logarithm (log) units below rod saturation] for activating units in the superficial 200 µm of the superior colliculus with a spot light of 3° diameter.
視覚閾値はバックグラウンドに対する強度の増加として測定し、3°直径のスポット光で上丘の表層200μmにおけるユニットを活性化するために0.02cd/mに[桿体飽和未満の少なくとも2.6対数(logユニットに)]維持すべきである。

Threshold maps are to be generated for each animal and illustrated as retinal representations.
閾値マップは各動物について表示させ、網膜表示として示すべきである。

US2021204536(ECOLAB USA INC [US])
[0037] The term “directional light” is used here to refer to light that is emitted in one direction from a “directional light source,” as opposed to light that is emitted in multiple directions.
【0011】
  用語「方向性ライト(directional  light)」は、多重方向に放射される光と対照的に、「方向性光源(directional  light  source)」から一方向に放射される光について本明細書において言及するのに使用される。

For the purposes of this disclosure, “directional light” is used to refer to light beams that can be aimed or directed.
本開示の目的のために、「方向性ライト(directional  light)」は、狙いを付けられるつまり方向を持つことができる光ビームについて言及するのに使用される。

Such light beams have a beam angle of less than 180° (e.g., about 90° or less).
このような光ビームは、180°未満(例えば、約90°未満)のビーム角を有する。

Beam angle is the width of the beam of light from the light source measured in degrees.
ビーム角とは、角度で測定された、光源からの光のビームの幅のことである。

The beam angle emanating from a parabolic (“PAR”) light bulb is
パラボラ(「PAR」)電球から発するビーム角は、

typically described as very narrow spot light if it is below 15°, as narrow spot light between 15°-30°,
15°未満の場合は極狭スポット光、15°~30°の場合は狭スポット光

as spot light between 30°-60°, as flood light between 90°-120°,
30°~60°の場合はスポット光、90°~120°の場合はフラッド光、

as wide flood light between 120°-160°, and as very wide flood light above 160°.
120°~160°の場合は幅広フラッド光、及び、約160°の場合は極幅広フラッド光として、通常は説明される。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

当ブログの例文について

本ブログの「特許英語散策」等題した部分では、英語の例文を管理人の独断と偏見で収集し、適宜訳文・訳語を記載しています。 訳文等は原則として対応日本語公報をそのまま写したものです。私個人のコメント部分は(大抵)”*”を付しています。 訳語は多数の翻訳者の長年の努力の結晶ですが、誤訳、転記ミスもあると思いますのでご注意ください。