US2022215266(BOSTON POLARIMETRICS INC [US])
[0147] In some embodiments, the synthesized DOLP ρ and AOLP ϕ data are
【0133】
いくつかの実施形態では、合成されたDOLPρおよびAOLPφデータは、
rendered into color images by applying a colormap such as the “viridis” colormap or the “Jet” colormap
「viridis」カラーマップや「Jet」カラーマップなどのカラーマップを適用することによってカラー画像にレンダリングされる
(see, e.g., Liu, Yang, and Jeffrey Heer. “Somewhere over the rainbow: An empirical assessment of quantitative colormaps.” Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. 2018.).
(例えば、Liu,Yang,およびJeffrey Heer、「Somewhere over the rainbow:An empirical assessment of quantitative colormaps」、Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems、2018を参照)。
These color mapped versions of the synthesized tensors in polarization space
偏光空間において合成されたテンソルのこれらのカラーマップバージョンは、
may be more easily supplied as input for retraining a pre-trained machine learning model such as convolutional neural network.
畳み込みニューラルネットワークなどの事前訓練済みの機械学習モデルを再訓練するための入力として、より簡単に提供されることができる。
In some embodiments, when synthesizing DOLP ρ and AOLP ϕ data, random colormaps are applied to the various synthesized data such that the synthesized training data set includes color images representing DOLP ρ and AOLP ϕ data in a variety of different colormaps, such that, at inference time, the network will be able to perform predictions without regard to the particular colormap used to encode the real DOLP ρ and AOLP data.
いくつかの実施形態では、推論時に、ネットワークが実際のDOLPρおよびAOLPφデータを符号化するために使用される特定のカラーマップに関係なく予測を実行することができるように、DOLPρおよびAOLPφデータを合成するとき、ランダムカラーマップは、合成された訓練データセットが様々な異なるカラーマップにおいてDOLPρおよびAOLPφデータを表すカラー画像を含むように、様々な合成データに適用される。
US20211138428(QUALCOMM INC [US])
Video decoder 300 may then inverse scan the reproduced coefficients (376), to create a block of quantized transform coefficients.
次いで、ビデオデコーダ300は、量子化された変換係数のブロックを作成するために、再生された係数を逆走査し得る(376)。
Video decoder 300 may then inverse quantize and inverse transform the transform coefficients to produce a residual block (378).
次いで、ビデオデコーダ300は、残差ブロックを生成するために、変換係数を逆量子化および逆変換し得る(378)。
Video decoder 300 may ultimately decode the current block by combining the prediction block and the residual block (380).
ビデオデコーダ300は、予測ブロックおよび残差ブロックを合成することによって、現在のブロックを最終的に復号し得る(380)。
///////////
Moreover, for bi-directional inter-prediction, motion compensation unit 224 may retrieve data for two reference blocks identified by respective motion vectors and combine the retrieved data, e.g., through sample-by-sample averaging or weighted averaging.
さらに、双方向インター予測の場合、動き補償ユニット224は、それぞれの動きベクトルによって識別された2つの参照ブロックのためのデータを取り出し、たとえば、サンプルごとの平均化または重み付けされた平均化によって、取り出されたデータを合成し得る。
Motion estimation unit 222 and motion compensation unit 224 may be configured to code blocks using MERs as described above.
動き推定ユニット222および動き補償ユニット224は、上記で説明したように、MERを使用してブロックをコーディングするように構成され得る。
[0106] As another example, for intra-prediction, or intra-prediction coding, intra prediction unit 226 may generate the prediction block from samples neighboring the current block.
【0099】
別の例として、イントラ予測またはイントラ予測コーディングの場合、イントラ予測ユニット226は、現在のブロックに隣接するサンプルから予測ブロックを生成し得る。
For example, for directional modes, intra-prediction unit 226 may generally mathematically combine values of neighboring samples and populate these calculated values in the defined direction across the current block to produce the prediction block.
たとえば、方向モードの場合、イントラ予測ユニット226は、一般に、隣接サンプルの値を数学的に合成し、これらの計算された値を現在のブロックにわたる定義された方向にポピュレートして、予測ブロックを生成し得る。
US11367018(ORACLE INT CORP [US])
[0045] In one embodiment, the body of test data is synthesized data generated based on historical data compiled by, for example, the on-premise server 151 .
【0049】
一実施形態において、テストデータのボディは、たとえばオンプレミスサーバ151によってコンパイルされた履歴データに基づいて生成された合成データである。
Automated scoping tool 103 may include a signal synthesis module (not shown).
自動スコーピングツール103は、信号合成モジュール(図示せず)を含み得る。
/////////
[0089] In one embodiment, the signal synthesis module analyzes the historical data and generates mathematical formulae which can be used to generate test data statistically identical to the historical data.
【0092】
一実施形態において、信号合成モジュールは、履歴データを分析し、履歴データと統計的に同一のテストデータを生成するために使用することができる数式を生成する。
The signal synthesis module stores the mathematical formulae in a data store associated with the automated scoping tool 103 .
信号合成モジュールは、自動スコーピングツール103に関連付けられたデータストアに数式を格納する。
The signal synthesis module generates synthesized test data on an as-required basis for use by the test application 133 during execution by the target cloud container stack 101 .
信号合成モジュールは、ターゲットクラウドコンテナスタック101による実行中のテストアプリケーション133による使用のために、必要に応じて合成テストデータを生成する。
The use of mathematical formulae to synthesize data on an as-required basis has an advantage over use of a body of historical or synthesized test data in terms of required storage and portability
必要に応じてデータを合成するための数式を使用することには、必要とされるストレージおよび可搬性の観点から、履歴または合成されたテストデータのボディの使用に勝る利点があり、
—the body of test data can be several terabytes of data, while the mathematical formulae may be only a few kilobytes.
テストデータのボディは、数テラバイトのデータであり得るが、数式はわずか数キロバイトの可能性がある。
US2022256701(DOLBY LABORATORIES LICENSING CORP [US])
[0070] In certain embodiments, method 900 further includes steps 902 , 904 , and 906 , each of which may be performed by an HDR image sensor such as HDR image sensor 110 .
【0051】
或る特定の実施形態において、方法900は、ステップ902、904および906を更に含み、それらのそれぞれは、HDR画像センサ110等のHDR画像センサによって実施され得る。
Step 902 captures raw image data at a capture bit depth.
ステップ902は、取込みビット深度でロー画像データを取り込む。
In one example of step 902 , pixel array 210 (in cooperation with ADC 212 ) captures digital image data 281 .
ステップ902の1つの例では、画素アレイ210は(ADC212と協働して)デジタル画像データ281を取り込む。
Step 904 merges the raw image data to form an HDR image at a pre-tone-compression bit depth.
ステップ904は、ロー画像データを合成して、階調圧縮前ビット深度でHDR画像を形成する。
In one example of step 904 , HDR merger 214 merges digital image data 281 , obtained at two or more different exposure settings, to form pre-tone-compression HDR image 282 .
ステップ904の1つの例では、HDR合成器214は、2つ以上の異なる露光設定で得られたデジタル画像データ281を合成して、階調圧縮前HDR画像282を形成する。
US11153583(QUALCOMM INC [US])
As another example, if the motion vector has fractional sample precision, motion compensation unit 224 may interpolate values for the prediction block according to one or more interpolation filters.
別の例として、動きベクトルがフラクショナルサンプル精度を有する場合、動き補償ユニット224は、1つまたは複数の補間フィルタに従って予測ブロックのための値を補間し得る。
Moreover, for bi-directional inter-prediction, motion compensation unit 224 may retrieve data for two reference blocks identified by respective motion vectors and combine the retrieved data, e.g., through sample-by-sample averaging or weighted averaging.
さらに、双方向インター予測の場合、動き補償ユニット224は、それぞれの動きベクトルによって識別された2つの参照ブロックのためのデータを取り出し、たとえば、サンプルごとの平均化または重み付けされた平均化によって、取り出されたデータを合成し得る。
US11545142(GOOGLE LLC [US])
[0060] In some implementations, synthetic training datasets 195 can be created by generating sentences with a variety of proper nouns and then synthesizing corresponding audio data.
【0062】
いくつかの実装形態において、様々な固有名詞を有する文章を生成し、次いで、対応するオーディオデータを合成することによって、合成トレーニングデータ195を作成することができる。
This technique can greatly expand the number of audio-text pairs that can be used as training examples.
この技法は、トレーニング例として使用することができるオーディオ-テキストペアの数を大幅に増やすことができる。
In some implementations, the generated text and synthesized audio are determined for specific domains or categories.
いくつかの実装形態において、生成されたテキストおよび合成されたオーディオは、特定のドメインまたはカテゴリに対して決定される。
For example, category-specific prefixes and proper nouns can be combined to generate the example text.
たとえば、例示的なテキストを生成するために、カテゴリ固有の接頭辞と固有名詞とを組み合わせることができる。
//////////
[0073] Implementations discussed above
【0075】
上記で論じられている実装形態は、
address early pruning of contextual n-grams by
performing biasing at the sub-word unit level (grapheme, wordpiece) rather than the word-level,
単語レベルではなく部分語単位レベル(書記素、単語断片)においてバイアスを実行し、
applying the contextual FST 160 before beam pruning rather than after,
ビーム剪定後ではなくビーム剪定前にコンテキストFST160を適用し、
incorporating a prefix FST 163 having a common set of prefixes (e.g., “call”, “text”) to help tremendously with anti-context, and leveraging a larger corpus of text-only data to improve modeling of proper nouns.
アンチコンテキストに非常に役立つように接頭辞の共通のセット(たとえば、「call」、「text」)を有する接頭辞FST163を組み込み、固有名詞のモデル化を改善するためにテキストのみのデータのより大きいコーパスを活用する
ことによって、コンテキストn-gramの早期の剪定に対処する。
Specifically, the modeling of proper nouns includes: (1) obtaining synthetic training datasets 195 by creating a large number of proper noun text-only queries, and synthesizing corresponding speech;
具体的には、固有名詞のモデル化は、(1)多数の固有名詞のテキストのみのクエリを作成し、対応する音声を合成することによって、合成トレーニングデータセット195を作成することと、
(2) leveraging a large amount of unsupervised audio-text data (e.g., unsupervised training data 193 ), filtered to keep data with proper nouns; and
(2)固有名詞を有するデータを維持するようにフィルタリングされた大量の教師なしオーディオ-テキストデータ(たとえば、教師なしトレーニングデータ193)を活用することと、
(3) fuzzing supervised training data 197 transcripts to create more proper nouns. Results are reported across four different contextual test sets. Proposed changes to the FST construction lead to significant improvements in shallow-fusion based biasing.
(3)より多くの固有名詞を作成するために教師ありトレーニングデータ197のトランスクリプトをファジングすることとを含む。
US2022132095(GOOGLE LLC [US])
[0046] A single device (e.g., any of client devices 120 - 126 ) that is used for image capture may include one or more cameras or imaging sensors.
【0040】
画像撮影のために用いられる1つのデバイス(たとえば、クライアントデバイス120~126のうちのいずれか)は、1つ以上のカメラまたは1つ以上のイメージセンサを備えてもよい。
For example, a device may include one or more cameras (e.g., RGB cameras) that can be used to capture a color image, an infrared camera, etc.
たとえば、あるデバイスは、カラー画像を撮影するために使用できる1つ以上のカメラ(たとえば、RGBカメラ)、赤外線カメラなどを備えてもよい。
For example, the one or more cameras may include cameras with different configurations, e.g., a telephoto camera, a wide angle camera, etc.
たとえば、当該1つ以上のカメラは、望遠カメラ、広角カメラなど、それぞれ異なる構成を有するカメラを含んでもよい。
Other configurations of cameras may also be used. Each camera may generate a corresponding image.
カメラのその他の構成が使われてもよい。各カメラは、対応する画像を生成してもよい。
In some implementations, image data obtained from different cameras of a device may be combined to obtain a primary image.
いくつかの実施態様では、デバイスが備えるそれぞれ異なるカメラから取得した画像データを合成して主画像を取得してもよい。