NVIDIA NCA-GENL LLM Foundations and Architecture

Use for embeddings, tokenization, transformer internals, attention, positional encoding, core model components, and general language-model concepts.

試験Exams
NCA-GENL
問題数Questions
14
コメント数Comments
5
1 14

表示中 14 / 14 問

1. NCA-GENL トピック 1 問題 11. NCA-GENL Topic 1 Question 1

問題Question

Word2vec を最もよく説明しているのは次のうちどれですか?

  • A. 人工知能モデルの構築に使用されるプログラミング言語。
  • B. テキスト コーパス内の単語の頻度を分析するために使用される統計手法。
  • C. テキスト データから単語埋め込みを生成するために使用される深層学習アルゴリズム。
  • D. 単語データの保存とクエリを行うために設計されたデータベース管理システム。

Which of the following best describes Word2vec?

  • A. A programming language used to build artificial intelligence models.
  • B. A statistical technique used to analyze word frequency in a text corpus.
  • C. A deep learning algorithm used to generate word embeddings from text data.
  • D. A database management system designed for storing and querying word data.

2. NCA-GENL トピック 1 問題 22. NCA-GENL Topic 1 Question 2

問題Question

言語モデルのコンテキストでは、自己回帰モデルは何を予測しますか?

  • A. 前のトークンを考慮したテキスト内の次のトークンの確率。
  • B. 過去のトークンのモンテカルロサンプリングを使用した次のトークンの確率。
  • C. リカレント ネットワークまたは LTSM セルのみを使用する次のトークン。
  • D. 以前および将来の入力トークンを調べることによる次のトークンの確率。

In the context of language models, what does an autoregressive model predict?

  • A. The probability of the next token in a text given the previous tokens.
  • B. The probability of the next token using a Monte Carlo sampling of past tokens.
  • C. The next token solely using recurrent network or LTSM cells.
  • D. The probability of the next token by looking at the previous and future input tokens.

3. NCA-GENL トピック 1 問題 33. NCA-GENL Topic 1 Question 3

問題Question

大規模言語モデルにおけるアテンション メカニズムの目的は何ですか?

  • A. 出力シーケンス内の単語の重要性を測定します。
  • B. 単語が生成される順序を決定します。
  • C. 入力シーケンス内の単語の順序をキャプチャします。
  • D. 入力シーケンス内の各単語に重みを割り当てます。

In large-language models, what is the purpose of the attention mechanism?

  • A. To measure the importance of the words in the output sequence.
  • B. To determine the order in which words are generated.
  • C. To capture the order of the words in the input sequence.
  • D. To assign weights to each word in the input sequence.

4. NCA-GENL トピック 1 問題 44. NCA-GENL Topic 1 Question 4

問題Question

トランスフォーマーのアーキテクチャにおいて、位置エンコーディングの目的は何ですか?

  • A. 入力シーケンスから冗長な情報を削除します。
  • B. 入力シーケンス内の各トークンの意味論的な意味をエンコードします。
  • C. 入力シーケンス内の各トークンの順序に関する情報を追加します。
  • D. 入力シーケンス内の各トークンの重要性をエンコードします。

In the transformer architecture, what is the purpose of positional encoding?

  • A. To remove redundant information from the input sequence.
  • B. To encode the semantic meaning of each token in the input sequence.
  • C. To add information about the order of each token in the input sequence.
  • D. To encode the importance of each token in the input sequence.

5. NCA-GENL トピック 1 問題 65. NCA-GENL Topic 1 Question 6

問題Question

大規模言語モデル (LLM) のコンテキストにおける基礎モデルとは何ですか?

  • A. 一般言語理解評価 (GLUE) ベンチマークを構成するタスクのいずれかに対して最先端の結果を設定するモデル。
  • B. 膨大な量のデータで大規模にトレーニングされたモデル。その目的は、さまざまな下流タスクに適応できるスターターとして機能することです。
  • C. 変換ベースのアプリケーションを構築するための基盤として人工知能安全研究所によって検証されたモデル。
  • D. リカレント ニューラル ネットワークと畳み込み層を使用する基礎論文「attention is all you need」に基づくモデル。

What is a foundation model in the context of Large Language Models (LLMs)?

  • A. A model that sets the state-of-the-art results for any of the tasks that compose the General Language Understanding Evaluation (GLUE) benchmark.
  • B. Any model trained on vast quantities of data at scale whose goal is to serve as a starter that can be adapted to a variety of downstream tasks.
  • C. Any model validated by the artificial intelligence safety institute as the foundation for building transformed-based applications.
  • D. Any model based on the foundation paper “Attention is all you need”, that uses recurrent neural networks and convolution layers.

6. NCA-GENL トピック 1 問題 76. NCA-GENL Topic 1 Question 7

問題Question

トランス アーキテクチャにおいて層の正規化が重要なのはなぜですか?

  • A. 新しいデータに一般化するモデルの機能を強化します。
  • B. 効率的に保存するためにモデルのサイズを圧縮します。
  • C. 機能全体の入力を調整することで学習プロセスを安定化します。
  • D. シーケンス内の位置情報をエンコードします。

Why is layer normalization important in transformer architectures?

  • A. To enhance the model’s ability to generalize to new data.
  • B. To compress the model size for efficient storage.
  • C. To stabilize the learning process by adjusting the inputs across the features.
  • D. To encode positional information within the sequence.

7. NCA-GENL トピック 1 問題 87. NCA-GENL Topic 1 Question 8

問題Question

トランスベースのモデルで位置エンコーディングが必要なのはなぜですか?

  • A. モデルのスループットを向上させるため。
  • B. シーケンス内の要素の順序を表す。
  • C. モデルの過学習を防ぐため。
  • D. 入力データの次元を削減するため。

Why do we need positional encoding in transformer-based models?

  • A. To increase the throughput of the model.
  • B. To represent the order of elements in a sequence.
  • C. To prevent overfitting of the model.
  • D. To reduce the dimensionality of the input data.

8. NCA-GENL トピック 1 問題 98. NCA-GENL Topic 1 Question 9

問題Question

通常、生成 AI とは何を指しますか?

  • A. 新しいオリジナルのデータを生成できるモデルの作成に焦点を当てた人工知能の分野。
  • B. 分類用モデルの自動生成に焦点を当てた人工知能の分野。
  • C. 既存のモデルの効率を向上させることに焦点を当てた人工知能の分野。
  • D. 既存のデータの分析と解釈に焦点を当てた人工知能の分野。

What do we usually refer to as generative AI?

  • A. A branch of artificial intelligence that focuses on creating models that can generate new and original data.
  • B. A branch of artificial intelligence that focuses on auto generation of models for classification.
  • C. A branch of artificial intelligence that focuses on improving the efficiency of existing models.
  • D. A branch of artificial intelligence that focuses on analyzing and interpreting existing data.

9. NCA-GENL トピック 1 問題 109. NCA-GENL Topic 1 Question 10

問題Question

ニューラル ネットワークで使用される活性化関数は次のうちどれですか?

  • A. シグモイド関数
  • B. K-means クラスタリング関数
  • C. 平均二乗誤差関数
  • D. 拡散機能

Which of the following is an activation function used in neural networks?

  • A. Sigmoid function
  • B. K-means clustering function
  • C. Mean Squared Error function
  • D. Diffusion function

10. NCA-GENL トピック 1 問題 1110. NCA-GENL Topic 1 Question 11

問題Question

ML アプリケーションでは、既存のデータに基づいて新しいデータを作成するためにどの機械学習アルゴリズムが一般的に使用されますか?

  • A. デシジョンツリー
  • B. サポート ベクター マシン (SVM)
  • C. 敵対的生成ネットワーク (GAN)
  • D. K 平均法クラスタリング

In ML applications, which machine learning algorithm is commonly used for creating new data based on existing data?

  • A. Decision tree
  • B. Support vector machine (SVM)
  • C. Generative adversarial network (GAN)
  • D. K-means clustering

11. NCA-GENL トピック 1 問題 1211. NCA-GENL Topic 1 Question 12

問題Question

生成 AI の拡散モデルを最もよく表す言葉は何ですか?

  • A. 拡散モデルは、データにノイズを段階的に注入し、サンプル生成のためにこのプロセスを逆にすることを学習する確率的生成モデルです。
  • B. 拡散モデルは、勾配ベースの最適化アルゴリズムを使用してデータ ポイントを分類する識別モデルです。
  • C. 拡散モデルは、クラスタリング アルゴリズムを使用して類似のデータ ポイントをグループ化する教師なしモデルです。
  • D. 拡散モデルは、変換アーキテクチャを使用してデータの基礎となる確率分布を学習する生成モデルです。

What statement best describes the diffusion models in generative AI?

  • A. Diffusion models are probabilistic generative models that progressively inject noise into data, then learn to reverse this process for sample generation.
  • B. Diffusion models are discriminative models that use gradient-based optimization algorithms to classify data points.
  • C. Diffusion models are unsupervised models that use clustering algorithms to group similar data points together.
  • D. Diffusion models are generative models that use a transformer architecture to learn the underlying probability distribution of the data.

12. NCA-GENL トピック 1 問題 1312. NCA-GENL Topic 1 Question 13

問題Question

実世界のアプリケーションにおける深層学習におけるスケーリング則の主な結果は何ですか?

  • A. データが増えると、削減不可能な誤差の範囲を超える可能性があります。
  • B. 小さなデータ領域でも最高のパフォーマンスのモデルを確立できます。
  • C. 小および中程度のエラー領域は、ビッグ データ領域の結果に近づく可能性があります。
  • D. べき乗則領域では、より多くのデータを使用することで、より良い結果を達成することができます。

What is the main consequence of the scaling law in deep learning for real-world applications?

  • A. With more data, it is possible to exceed the irreducible error region.
  • B. The best performing model can be established even in the small data region.
  • C. Small and medium error regions can approach the results of the big data region.
  • D. In the power-law region, with more data it is possible to achieve better results.

13. NCA-GENL トピック 1 問題 1413. NCA-GENL Topic 1 Question 14

問題Question

自然言語処理には、単語表現 (単語埋め込みとも呼ばれます) として総称される問題定式化の一連のステップがあります。 NLP タスクのこれらの表現を生成するために使用できる深層学習モデルは次のうちどれですか? (2つお選びください。)

  • A. Word2vec
  • B. ワードネット
  • C. Kubernetes
  • D. TensorRT
  • E. BERT

In Natural Language Processing, there are a group of steps in problem formulation collectively known as word representations (also word embeddings). Which of the following are Deep Learning models that can be used to produce these representations for NLP tasks? (Choose two.)

  • A. Word2vec
  • B. WordNet
  • C. Kubernetes
  • D. TensorRT
  • E. BERT

14. NCA-GENL トピック 3 問題 514. NCA-GENL Topic 3 Question 5

問題Question

あなたの会社は、従来の LLM モデルから、より大規模なシーケンスとより高いトークン制限を可能にする新しいモデルにアップグレードしました。新しいモデルにアップグレードした場合に最も考えられる結果は何ですか?

  • A. トークンの数は既存のすべての言語モデルで固定されているため、より高いトークン制限にアップグレードするメリットはありません。
  • B. 新しいモデルではより大きなコンテキストが可能になるため、推論時間のオーバーヘッドを増やすことなく出力が向上します。
  • C. 新しいモデルでは同じコンテキスト長が許可されますが、トークン制限が大きいため、より包括的でより詳細な長い出力が得られます。
  • D. 新しいモデルではより大きなコンテキストが許可されるため、出力は向上しますが、推論時間が長くなる可能性があります。

Your company has upgraded from a legacy LLM model to a new model that allows for larger sequences and higher token limits. What is the most likely result of upgrading to the new model?

  • A. The number of tokens is fixed for all existing language models, so there is no benefit to upgrading to higher token limits.
  • B. The newer model allows for larger context, so the outputs will improve without increasing inference time overhead.
  • C. The newer model allows the same context lengths, but the larger token limit will result in more comprehensive and longer outputs with more detail.
  • D. The newer model allows larger context, so outputs will improve, but you will likely incur longer inference times.