2021年11月26日:更新(100名以上の合否メールの「得点率」を集計しました)
昨日、今年最後の「G検定」試験が行われました。受験された方、お疲れ様でした。
今回も試験で出題された191問をまとめました。記憶が薄まる前に、試験の振り返りにお役立て下さい。来年の試験は3月になります。再受験を検討している方は、自分の苦手なところをメモしておくことをお薦めします。
全191問 問題リスト
出題された問題をそのまま書いてしまうのは禁止行為なので、ザックリとした内容を書いています。
■「対策」・・・『公式テキスト第2版』だけでは対策が難しい問題は【⚠】としました
番号 | 内容 |
対策:難 |
1 | VGGとResNetとの相違:スキップ構造の説明 | ⚠ |
2 | チューリングテスト | |
3 | 行列AとBが共にm✕n行列:AとBのアマダール積 | ⚠ |
4 | 説明可能AI(XAI)の説明 | |
5 | fastText | |
6 | 誤差逆伝播法の勾配消失の抑制を試みる方法 | |
7 | ワンホットベクトル | ⚠ |
8 | 強化学習を導入するメリット | |
9 | 知識ベースと推論エンジン | |
10 | 「カメラ画像利活用ガイドブック」データ利用時の留意点 | ⚠ |
11 | Rainbow | ⚠ |
12 | パルス符号変調器で行われる処理 | ⚠ |
13 | 過学習の説明 | |
14 | GPT-3 | |
15 | 不正競争防止法の営業秘密と限定提供データ | ⚠ |
16 | 深層強化学習の特徴 | |
17 | ウェブマイニングとデータマイニングの取組み | |
18 | 個人情報保護法の説明 | |
19 | 次元削減手法として用いられない手法 | |
20 | エッジAIの説明 | |
21 | 日本でのAIガバナンス | |
22 | AIやディープラーニングのビジネス応用 | |
23 | サンプリングバイアス/データバイアス | |
24 | 意味ネットワークの概念間の関係性 | |
25 | EfficientNet | |
26 | OpenPose | ⚠ |
27 | 発明に関する説明 | ⚠ |
28 | CNN:カテゴリ分類を行うための層 | |
29 | 情報利得の最大化 | |
30 | テストデータの一部が訓練データに入った場合の問題 | |
31 | 「カメラ画像利活用ガイドブック」の個人データ | |
32 | 学習率の説明 | |
33 | 汎化性能 | |
34 | データリーケージ | ⚠ |
35 | 確率的勾配降下法の説明 | |
36 | イテレーション | |
37 | アノテーション | |
38 | ディープフェイクの説明 | |
39 | 自分の興味のある情報以外が見えなくなること | |
40 | 転移学習の例 | |
41 | Actor-Critic法の説明 | ⚠ |
42 | コサイン類似度の性質 | ⚠ |
43 | トイ・プロブレムの説明 | |
44 | 匿名加工情報の説明 | |
45 | ResNet:skip connection | |
46 | フレーム問題 | |
47 | Adversarial attacksと関連が深い説明 | |
48 | LSTMの構成要素 | |
49 | AI効果 | |
50 | メル尺度への変換が必要な理由 | ⚠ |
51 | L2正則化 | |
52 | データ拡張の目的 | |
53 | AIが持つ知的な処理能力 | |
54 | Web APIを利用するメリット | |
55 | ディープブルーの課題 | |
56 | ResNet | |
57 | 個人情報保護法の説明 | |
58 | CRISP-DMの説明 | ⚠ |
59 | 変分オートエンコーダの説明 | |
60 | RNNに期待されるメリット | |
61 | データリーケージの影響 | ⚠ |
62 | 機械学習に適した学習データ | |
63 | RNNで系列データを扱える理由 | |
64 | AIを用いた顔認識技術の問題点 | ⚠ |
65 | 活性化関数:ReLU関数 | |
66 | 深層信念ネットワーク | |
67 | エキスパートシステム | |
68 | サンプリング・バイアスの説明 | |
69 | Grad-CAMなどの可視化手法 | ⚠ |
70 | Mask R-CNN | ⚠ |
71 | 相関係数・分散 | ⚠ |
72 | MLOps | |
73 | 個人情報保護法の説明 | |
74 | マハラノビス距離 | ⚠ |
75 | 順伝播型 | |
76 | 単純パーセプトロン | |
77 | TF-IDF | |
78 | 再学習させる効率のよい方法 | |
79 | LSTMの解説図 | |
80 | 自然言語処理 | |
81 | ベイズの定理 | |
82 | 重回帰分析の例 | |
83 | Neural Architecture Search | ⚠ |
84 | 蒸留 | |
85 | 改正著作権法30条の4 第2号の規定 | ⚠ |
86 | 過学習を防ぐ、抑制する手法 | |
87 | 決定木:深さ優先探索 | |
88 | AlexNet | |
89 | 単純なRNNの問題点 | |
90 | 学習済みモデルの権利保護の説明 | ⚠ |
91 | フォルマント | ⚠ |
92 | U-Net | |
93 | AIの共同開発の留意点 | ⚠ |
94 | 早期終了の説明 | |
95 | SVMで線形分離できないときに用いる手法 | |
96 | 変数X、Y、Zの観測 | ⚠ |
97 | 過学習の状態の説明 | |
98 | オフライン強化学習の説明 | ⚠ |
99 | SVM:マージンの最大化 | |
100 | PoC段階でAIモデルを生成する目的 | |
101 | Source-Target Attention | ⚠ |
102 | 畳み込み層で行う操作 | |
103 | Neural Architecture Search | ⚠ |
104 | XAIが必要とされる理由 | |
105 | GRU | |
106 | データ拡張手法に関する説明 | |
107 | 強いAIと弱いAIの説明 | |
108 | ReLU関数 | |
109 | 離散確率変数XとYの相互情報量の説明 | ⚠ |
110 | GANの説明 | |
111 | AIの倫理・法・社会的な課題への企業側の対応 | ⚠ |
112 | シンボルグラウンディング問題 | |
113 | AIにおける透明性 | |
114 | BPTT | |
115 | 教師強制の説明 | ⚠ |
116 | 勾配降下法の役割 | |
117 | MFCCに関する説明 | ⚠ |
118 | RNNや自己回帰モデルの違い | |
119 | 解釈性 | |
120 | CAM | ⚠ |
121 | データセット/訓練/検証/テスト | |
122 | GDPRに関する説明 | |
123 | 炎上対策における留意点 | |
124 | 過学習の原因 | |
125 | k-means法 | |
126 | 事前学習にオートエンコーダを用いる理由 | |
127 | 多クラス分類で用いる関数 | |
128 | 自動運転レベル3の説明 | |
129 | ディープラーニングの盛り上がりの理由 | |
130 | Seq2Seqに関する説明 | ⚠ |
131 | 大域/局所/ハイパーパラメータ | |
132 | 音素の説明 | ⚠ |
133 | プライバシー・バイ・デザイン | |
134 | 限定提供データ | |
135 | データ収集・実装・運用・評価時の個人情報 | |
136 | 信頼性を備えたAI~、倫理的に~、Partnership on AI | |
137 | 量子化 | ⚠ |
138 | TPUの説明 | |
139 | アルゴリズムバイアス | |
140 | パーセプトロンの説明 | |
141 | Grad-CAM | ⚠ |
142 | 誤差逆伝播法の説明 | |
143 | AIの社会実装とビジネス利活用 | |
144 | 活性化関数の説明 | |
145 | Mini-Max法 | |
146 | 損害や倫理問題を引き起こさないための対応 | ⚠ |
147 | 単純パーセプトロンの欠点 | |
148 | FCN | |
149 | ソフトマックス関数 | |
150 | GPU | |
151 | 探索・推論 | |
152 | アナログ音声を特徴量に変換する流れ | ⚠ |
153 | マルチエージェント強化学習の特徴 | ⚠ |
154 | ブースティングの説明 | |
155 | クラスタリング | |
156 | ディープラーニングとデータ量 | |
157 | バギングの説明 | |
158 | 学習済みモデルの知的財産としての保護 | ⚠ |
159 | データ拡張 | |
160 | ディープラーニングとデータの関係 | |
161 | GPGPU | |
162 | ReLU関数 | |
163 | CycleGANの説明 | ⚠ |
164 | Adversarial attacksの説明 | |
165 | プルーニング | ⚠ |
166 | AIをエッジ方式で提供する際の検討点 | |
167 | 個人情報保護法の説明 | |
168 | AIの軍事利用 | |
169 | DCGANの説明 | |
170 | ELMo | ⚠ |
171 | WaveNet | |
172 | A-D変換の説明 | ⚠ |
173 | DeepLabV3 | ⚠ |
174 | BERTの特徴 | ⚠ |
175 | 勾配消失問題が起こりやすい条件 | |
176 | 「AIに関する倫理ガイドライン」の7要件 | |
177 | 自己回帰モデルの分析対象例 | |
178 | N-gram | |
179 | ニューラルネットワークの説明 | |
180 | 活性化関数 | |
181 | 誤差逆伝播法の流れ | |
182 | 強化学習に適した課題 | |
183 | ハイパーパラメータの説明 | |
184 | (簡単なクイズ問題:ハノイの塔) | |
185 | 知識獲得のボトルネックの説明 | |
186 | RNN:系列データ | |
187 | PoC/準委任 | ⚠ |
188 | オープンデータセットのメリット | |
189 | 協調フィルタリング | |
190 | U-Net:セマンティックセグメンテーション | ⚠ |
191 | 営業秘密の説明 | ⚠ |
今回の試験の特徴
前回の試験は、シラバスが新しくなってからの最初の試験でした。(前回の試験については別の記事にまとめています)
今回の試験は、新シラバスになってからの第2回目ということで、前回とほぼ同じ内容でした。機械学習・深層学習の基礎をしっかり理解していれば解ける問題が多い点は、G検定がスタートしてから変わりません。ここがブレないところにG検定の価値があると思いました。
問題文の『~不適切な選択肢を選べ』の、「不適切」が太文字となった点は、嬉しい改善点でした。
前回の試験から、合否発表のメールに「分野別得点率」が記載されるようになりました。合格はしたけど、『もっと得点率を上げて合格したい』という気持ちになったら、以下のトピックも正解できるように対策しておくことをお薦めします。
ResNet |
アマダール積 |
ワンホットベクトル |
カメラ画像利活用ガイドブック |
Rainbow |
パルス符号変調器 |
限定提供データ |
OpenPose |
発明 |
データリーケージ |
Actor-Critic法 |
コサイン類似度 |
メル尺度 |
CRISP-DM |
データリーケージ |
顔認識技術 |
Grad-CAM |
Mask R-CNN |
相関係数/分散 |
マハラノビス距離 |
Neural Architecture Search |
改正著作権法30条の4 第2号 |
学習済みモデルの権利保護 |
フォルマント |
AIの共同開発 |
オフライン強化学習の説明 |
Source-Target Attention |
Neural Architecture Search |
離散確率変数/相互情報量 |
教師強制 |
MFCC |
CAM |
Seq2Seq |
音素 |
量子化 |
Grad-CAM |
アナログ音声を特徴量に変換する流れ |
マルチエージェント強化学習 |
学習済みモデルの知的財産としての保護 |
CycleGAN |
プルーニング |
ELMo |
A-D変換 |
DeepLabV3 |
BERT |
U-Net |
営業秘密 |
合否の結果を受けて
11月19日に、合否結果がメールで届きました。
(今回も無事に合格することが出来ました)
今回の「問題の分類」は、以下の7つでした。
1.人工知能とは. 人工知能をめぐる動向. 人工知能分野の問題
2.機械学習の具体的手法
3.ディープラーニングの概要
4.ディープラーニングの手法
5.ディープラーニングの社会実装に向けて
6.数理・統計
7.法律・倫理・社会問題
114名の方から、得点率を教えて頂き、集計したものがこちらです。

公式から「各項目で、何%以上だと合格になるのか?」は発表されていないので、正確に知ることは出来ません。
不合格になった方からの貴重な情報をまとめると、以下のスコアを全て下回ると「不合格」になってしまうのではないかと予測しました。

多くの方が、苦手としている問題は、以下の3ジャンルであることが分かりました。
4.ディープラーニングの手法
6.数理・統計
7.法律・倫理・社会問題
来年2022年に受験される方は、参考にして頂けると幸いです。