生成AIパスポート出題範囲-第2章(生成AI)の4択問題-2

生成AIパスポート出題範囲-第2章(生成AI)の4択問題-2

生成AIパスポート第2章の続きの問題6問目-10問目です。

第2章の4択問題

第6問

以下の選択肢のうち、正しい説明を選んでください。

  1. Transformerモデルは、データを時系列に処理するためにRNNやLSTMを内部に組み込んでいる。
  2. Transformerモデルは、自己注意力(Self-Attention)を用いて、データを一度に処理し順序に依存しない。
  3. Transformerモデルは、Attentionメカニズムの代わりに畳み込み層を利用している。
  4. Transformerモデルは、エンコーダ部分だけで構成されており、デコーダ部分は存在しない。

正解は2番です!🎉

選択肢2の説明は正しいです。Transformerモデルは自己注意力(Self-Attention)を利用し、データを並列に処理する特性があります。これにより、データの順序に依存せず、一度に全ての要素を考慮して処理することが可能です。

この仕組みは従来のRNNやLSTMモデルの課題を克服しています。

第7問

以下の選択肢のうち、正しい説明を選んでください。

  1. GPT-2は、当初からフルモデルの公開が行われ、研究者が自由に利用できる状態でした。しかし、実際には悪用リスクへの懸念はほとんど議論されていませんでした。
  2. GPT-3は、1750億のパラメータを持ち、前モデルに比べてはるかに高度な自然言語処理能力を発揮しました。このモデルは微調整を必要とせず、多くのタスクに対応できる特徴があります。
  3. GPT-1は、短期的な文脈理解能力を持ち、限定的なタスクに向けて開発されました。このモデルは、大規模なデータセットを必要とせず簡易に動作しました。
  4. GPT-3.5は、RLHFを使用せずに、精度の高い文章生成を実現しています。その結果、人間のフィードバックを反映することが難しい設計となっています。

正解は2番です!🎉

正しい説明です。GPT-3は1750億のパラメータを持ち、大規模なデータセットを基にトレーニングされました。その結果、微調整なしで幅広い自然言語処理タスクに対応可能となりました。

第8問

以下の選択肢のうち、正しい説明を選んでください。

  1. Transformerモデルは、RNNやLSTMを内包し、シーケンスデータの処理を高速化しています。これにより、大規模なデータセットの処理時間を短縮しました。
  2. Transformerモデルは、自己注意力(Self-Attention)を活用し、データ順序に依存せずに処理を行います。この仕組みにより、従来のシーケンスモデルの課題を克服しました。
  3. Transformerモデルは、エンコーダ部分のみで構成されており、デコーダ部分は別途訓練する必要があります。この特徴が、自然言語処理タスクでの汎用性を高めています。
  4. Transformerモデルは、注意機構の代わりに畳み込み演算を採用し、局所的な特徴を強調する特性を持っています。その結果、画像処理タスクに特化しました。

正解は2番です!🎉

選択肢2は、Transformerモデルの正しい特徴を説明しています。自己注意力(Self-Attention)を活用することで、データの順序に依存せず、並列処理を可能にし、従来のRNNやLSTMの課題を克服しています。

第9問

以下の選択肢のうち、間違った説明を選んでください。

  1. ChatGPTは、対話型AIとして多様なタスクに対応できるよう設計されています。このモデルは、ユーザーの入力に基づいて自然な会話を行うことが得意です。
  2. GPT-4は、マルチモーダルな機能を搭載しており、画像や音声データも処理することが可能です。この機能はGPT-3.5には存在しませんでした。
  3. GPTシリーズは、Transformerアーキテクチャを基盤としており、特に自然言語処理タスクに最適化されています。この設計により、並列処理が可能になりました。
  4. GPT-3.5は、Transformerの代わりに畳み込みニューラルネットワーク(CNN)を使用して構築されています。その結果、特定のタスクに限定された性能を示します。

正解は4番です!🎉

選択肢4:GPT-3.5は、Transformerアーキテクチャを基盤として構築されており、畳み込みニューラルネットワーク(CNN)を使用しているわけではありません。この説明は間違っています。

第10問

以下の選択肢のうち、正しい説明を選んでください。

  1. RLHF(Reinforcement Learning from Human Feedback)は、モデルの性能を調整するための仕組みで、GPT-3.5では使用されていませんでした。GPT-4から導入された新しい技術です。
  2. ChatGPTは、GPT-3.5を対話向けにファインチューニングしたWebアプリケーションであり、対話形式で自然なやり取りを実現しています。この技術の基盤にはTransformerモデルが用いられています。
  3. GPT-4は、自己注意力の代わりに従来の時系列処理技術を採用しています。これにより、短期的な文脈理解が得意です。
  4. GPT-2は、自然言語生成の性能向上を目的に開発されましたが、当初は公開が完全に制限され、現在もフルモデルは非公開のままです。

正解は2番です!🎉

選択肢2: 正しい説明です。ChatGPTは、GPT-3.5を基盤に対話向けにファインチューニングされたWebアプリケーションです。この技術はTransformerモデルに基づいており、自然な対話を可能にしています。

選択肢1: RLHFはGPT-3.5で初めて採用されました。この説明は間違いです。

選択肢3: GPT-4はTransformerアーキテクチャに基づいており、CNNではありません。この説明も誤りです。

選択肢4: GPT-2は公開当初、悪用リスクを懸念して一部非公開でしたが、その後フルモデルが公開されています。この説明も不正確です。

次のページでは第2章の穴埋め問題を用意しています。

ぜひ、試験前の確認にご活用ください。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です