昨日(3月20日)、第10回目の「G検定」試験がおこなわれました。いつものように、全191問をリストにしました。復習や試験対策にお役立て下さい。※下の方にあります。
前回の試験(2020年11月)では、新しめのトピックが追加され、古い対策本で挑んだ方にとっては厳しい試験だったと思います。
今回の試験を一言でいうと、『前回とほぼ同じ』でした。
昨年発売された『対策本・問題集』で出題傾向をつかみつつ、「理解を深める」対策をした人にとっては、合格の手応えを感じられたのではないでしょうか。
『公式テキスト』以外の「対策本・問題集」は、既に6冊もあります。(個人出版の書籍を除く)
そのうちの3冊は、昨年2020年に発売されました。
要点整理から攻略する『ディープラーニング G検定 ジェネラリスト』【緑本】
最短突破 ディープラーニングG検定(ジェネラリスト) 問題集【茶本】
“キーワード集中解説”で最短合格 ディープラーニングG検定 ジェネラリスト 対策テキスト【オレンジ本=橙本】
実際の試験は「いつも出る 定番問題」で6割構成されています。2019年に発売された「3冊」の本でも、この定番問題の対策は可能です。
残り4割の多くは、定番問題に変更を加えたものなので、単語の暗記に留まらずに「仕組みを理解する」ところまで対策ができれば解ける問題になっています。
対策が難しいのは・・・・全ての対策本で扱われていない技術・トピックです。
下の表は、定番問題を外し「今回と昨年11月の試験で新しく出た問題」が、新しい3冊の本で取り上げられているかどうか?をまとめたものです。
●=取り上げられている
対策が難しい問題 | 緑本 | 茶本 | 橙本 |
Depthwise畳み込み | |||
GradCAM | |||
Neural architecture search | |||
伸縮マッチング手法 | |||
正規分布 | ● | ||
RNN Encoder-Decoder | ● | ● | |
FCN | ● | ||
EfficientNet | ● | ||
ガウシアン/ラプラシアンピラミッド | |||
HOG特徴量 | |||
コサイン類似度 | ● | ● | |
MAML | |||
SMOTE | ● | ||
actor-critic法 | ● | ● | ● |
ポアソン回帰 | |||
ベルマン方程式 | |||
U-Net | ● | ● | ● |
音声認識 メル尺度 | ● | ||
ベイズ推定 | |||
データリーケージ | |||
カルマンフィルター | |||
ROIプーリング | |||
MFCC | ● | ||
自己回帰モデル(ARモデル) | ● | ||
強化学習 A3C | ● | ● | |
AIC | ● | ||
パノプティックセグメンテーション | ● | ||
価値反復法/方策反復法 | ● |
どの本も「新しく出た問題」の予想は当たっていません。まあ、このような問題を全て落としても「合否」に大きな影響はないようなので、心配しなくても大丈夫でしょう。
G検定で毎回出題される「技術とトピック」を、人に説明できる状態に持っていくことを目指しましょう。そうすることで合格だけでなく、強い達成感も得られると思います。
今年の4月下旬に『公式テキスト 第2版』が発売されます。今の『公式テキスト』は、2018年10月発売と古く、不満も多く寄せられているので、どのように変わるのか楽しみです。
「RNN」「強化学習」「自然言語処理」は、どのG検定本でも取り上げているんですが、学習者が理解できるように噛み砕いてくれている本が無いんですよね。これから発売するG検定本には、理解が難しいところだけに特化したものを期待しています。
以前書いた『G検定の勉強法』は古くなってしまったので、6月上旬に『公式テキスト 第2版』のレビューと一緒に「最新のG検定の対策法・勉強法」の記事を出します。
全191問 問題リスト
下の表が、今回試験に出た「191問」になります。(事務局の方に怒られないように、ざっくりと書いています)
■「不正解を選ぶ」・・・『正しくない~/不適切な選択肢を選べ』という問題に、【✔=チェック】を付けています。
■「対策」・・・最新の3冊に加えて、本の中に出ているキーワードを掘り下げて調べたり、AIの最新情報を収集するなどの対策が必要だと感じた問題を、【 ⚠=注意 】としました。
⚠・・・・・・・・・32問
不正解を選ぶ・・・・27問
前回(2020年11月)よりも、⚠の数が減った理由は、『対策本・問題集』のお陰で、対策がしやすくなったためです。
ちなみに、『法律・倫理・政策』問題は、26問でした。多く出題されたという印象を持つ人が多いのですが、実は毎回これぐらいしか出題されていません。試験の前半に登場することが多いので、そのような印象を持たれるのかもしれませんね。
番号 | 問題 | 対策 |
不正解を選ぶ
|
1 | FCNの特徴 | ⚠ | ✔ |
2 | 説明可能なAIへの投資プログラム | ||
3 | RNN Encoder-Decoderの中間層の次元 | ⚠ | |
4 | 自然言語処理:コサイン類似度の性質 | ⚠ | |
5 | k-平均法 | ||
6 | 多層パーセプトロンの説明 | ||
7 | 一般物体検知とセグメンテーション | ||
8 | 学習済みモデルの権利保護について | ||
9 | CNNの説明 | ✔ | |
10 | DNNの計算 | ||
11 | 確率的勾配降下法の説明 | ||
12 | 自然言語処理 | ||
13 | 自然言語処理モデルに関連する事柄 | ||
14 | 深層強化学習の「問題と報酬」の組み合わせ | ||
15 | ディープブルーの性能 | ||
16 | データ拡張の目的 | ✔ | |
17 | ImageNetの説明 | ||
18 | 剪定 | ||
19 | 音声データの処理 | ⚠ | |
20 | U-Netが用いられるタスク | ||
21 | 自律型致死兵器をめぐる議論 | ✔ | |
22 | TPU | ||
23 | マックスプーリングの特徴 | ||
24 | ディープラーニング盛り上がりの理由 | ✔ | |
25 | 個人情報保護法の説明 | ⚠ | |
26 | AI倫理上の課題 | ✔ | |
27 | TF-IDFの処理の説明 | ||
28 | ベイズ推定の説明 | ⚠ | |
29 | define-by-runの説明 | ||
30 | 多クラスの物体認識:正解ラベルの扱い | ⚠ | |
31 | 個人情報保護法の説明 | ||
32 | 画像にわずかな摂動を加えて生成されたサンプル | ||
33 | ベイズの定理(式) | ||
34 | VGGNetとResNetの相違 | ||
35 | MNISTの説明 | ||
36 | データ拡張の説明 | ✔ | |
37 | Depthwise畳み込みの説明 | ⚠ | |
38 | 伸縮マッチング手法が必要な理由 | ⚠ | |
39 | 単語埋め込みモデルの説明 | ||
40 | CNN:推定結果の根拠を可視化する手法 | ⚠ | |
41 | ハイパーパラメータ | ||
42 | 限定提供データの説明 | ⚠ | ✔ |
43 | LSTMのゲート | ||
44 | CIFARの説明 | ||
45 | ゼロ・パディング | ||
46 | EfficientNet | ⚠ | |
47 | CNN:ストライド幅の計算 | ||
48 | RNNに期待されるメリット | ||
49 | DQN | ||
50 | RNNで系列データを扱える理由 | ||
51 | 損失関数 | ||
52 | GANの説明 | ||
53 | メル尺度が重要な理由 | ⚠ | |
54 | アンサンブル学習 | ||
55 | ディープフェイクの説明 | ✔ | |
56 | セマンティック・ウェブ | ||
57 | SVM:マージンの最大化 | ||
58 | 行動価値関数Qの説明 | ⚠ | |
59 | 第3次AIブーム:深層学習 | ||
60 | Adversarial Examples | ||
61 | 構文解析 | ||
62 | 決定木:情報利得の最大化 | ||
63 | DNNの計算 | ||
64 | BERT | ||
65 | 説明可能なAIの説明 | ||
66 | 強化学習に適した課題 | ||
67 | ソフトマックス関数 | ||
68 | 損失関数 | ||
69 | 早期終了の説明 | ||
70 | 交差検証法の役割と意義 | ✔ | |
71 | データリーケージの影響 | ||
72 | 強化学習の具体例 | ||
73 | AIの倫理的・法的・社会的な課題への留意 | ⚠ | ✔ |
74 | 内容ベースフィルタリング | ||
75 | RNNの再帰構造 | ||
76 | 欧州委員会「AIに関する倫理ガイドライン」 | ⚠ | ✔ |
77 | ReLU関数 | ||
78 | 個人情報保護法の説明 | ⚠ | ✔ |
79 | アンサンブル学習:汎化性能 | ||
80 | パラメータが更新された回数 | ||
81 | 蒸留 | ||
82 | インセプションモジュールの説明 | ||
83 | 主成分分析 | ||
84 | SMOTE | ⚠ | |
85 | 勾配消失が起こりやすい条件 | ||
86 | 混同行列 | ||
87 | バッチ学習 | ||
88 | 活性化関数 | ||
89 | Actor – Critic 法の説明 | ⚠ | |
90 | 学習用データ:改正著作権法 | ⚠ | |
91 | データ拡張 | ||
92 | 物体検出の説明 | ||
93 | 0から1までの連続値をとる活性化関数 | ||
94 | LSTMを構成する要素 | ||
95 | VGG16 | ||
96 | MFCCの説明 | ⚠ | |
97 | ランダムフォレスト:決定木 | ||
98 | 学習済みモデル:知的財産としての保護 | ⚠ | ✔ |
99 | k-分割交差検証の効用 | ||
100 | ARモデルの分析対象例 | ⚠ | |
101 | 単回帰分析結果の解釈 | ||
102 | 訓練・検証・テストデータ | ||
103 | 機械学習:最適化手法 | ✔ | |
104 | 過学習をしている状態 | ||
105 | カメラ画像:個人情報保護法 | ⚠ | |
106 | ディープフェイクの説明 | ✔ | |
107 | word2vec | ||
108 | 深層強化学習 | ||
109 | ファインチューニング | ||
110 | AIの倫理・信頼性のガイドライン等 | ⚠ | ✔ |
111 | 重回帰分析の例 | ||
112 | バッチ正規化 | ✔ | |
113 | 相関係数のグラフ | ||
114 | ハイパーパラメータの初期設定 | ||
115 | キャプション生成の説明 | ||
116 | 信頼性を備えたAI~、倫理的に~、Partnership on AI | ||
117 | L2正則化 | ||
118 | 発明者に関する説明 | ✔ | |
119 | RPA | ||
120 | 交差検証の説明 | ||
121 | Seq2Seqの説明 | ||
122 | 個人情報保護法の説明 | ||
123 | 意味ネットワーク | ||
124 | シンボルグラウンディング問題 | ||
125 | 転移学習の例 | ||
126 | モラベックのパラドックス | ||
127 | AlexNet | ||
128 | データ拡張の説明 | ✔ | |
129 | 6面体サイコロ:期待値 | ||
130 | 正則化の説明 | ||
131 | RPAの説明 | ||
132 | ローブナーコンテスト | ||
133 | セマンティックセグメンテーションの説明 | ||
134 | CNN:プーリングの適用回数 | ||
135 | ポアソン回帰によるモデル分析の対象例 | ⚠ | ✔ |
136 | 営業秘密の説明 | ⚠ | |
137 | 自動運転:搭載を義務付けられている装置 | ||
138 | 分散表現と関連性の深いもの | ||
139 | エポック | ||
140 | 誤差逆伝播法の計算 | ||
141 | 知識獲得のボトルネックの説明 | ||
142 | ドロップアウトの説明 | ||
143 | 隠れマルコフモデル | ||
144 | 音素 | ||
145 | 汎化性能 | ||
146 | 顔認識技術:倫理的な問題 | ⚠ | ✔ |
147 | 未知のデータの母集団に対する誤差の期待値 | ||
148 | LSTM:RNNの問題点 | ||
149 | ResNet:スキップコネクション | ||
150 | PB→EB→ZB→YB | ||
151 | 訓練誤差:パラメータの更新 | ||
152 | GDPRの説明 | ||
153 | TPUの説明 | ||
154 | 単純パーセプトロン | ||
155 | オンライン学習 | ||
156 | Neural architecture search | ⚠ | |
157 | WaveNet | ||
158 | GDPRに関する説明 | ✔ | |
159 | BoWによる処理の説明 | ||
160 | エキスパートシステム | ||
161 | 教師なし学習の手法との関連 | ||
162 | AIの共同開発での留意点 | ✔ | |
163 | 回帰問題の説明 | ||
164 | 変数・相関係数・分散 | ||
165 | 協調フィルタリング | ||
166 | 事前学習の一例 | ||
167 | 強化学習の動向 | ||
168 | 注意機構 | ||
169 | ボルツマンマシン | ||
170 | 学習率の説明 | ✔ | |
171 | LSTMの説明 | ✔ | |
172 | FCNの特徴 | ⚠ | |
173 | ハイパーパラメータの説明 | ||
174 | 画像認識モデルに関する説明 | ||
175 | AIにおける透明性 | ⚠ | ✔ |
176 | ロボット制御における強化学習のメリット | ||
177 | LeNet→AlexNet→GoogLeNet→ResNet | ||
178 | ディープブルーの課題 | ||
179 | 訓練誤差の最小化 | ||
180 | TF-IDF | ||
181 | GAN | ||
182 | GRU | ||
183 | 営業秘密の説明 | ⚠ | |
184 | OCRの説明 | ||
185 | ロボット制御に深層強化学習を導入するメリット | ||
186 | 相関係数・分散(他)の組み合わせ | ||
187 | マルチモーダル | ||
188 | テストデータの一部が訓練データに紛れ込んだ場合 | ||
189 | 正規分布の式 | ⚠ | |
190 | クラスタリング | ||
191 | 単純パーセプトロンの欠点 |
次回の試験から「新しいG検定」が始まります
3月30日、次回の試験から「新シラバス」になるという発表がありました。
次回G検定より、改訂された新シラバスが適用となります。
本改訂はDX時代のニーズに対応していくために実施し、「データ×AI」の活用を企画・推進する上で重要となる、AIプロジェクトの企画や推進・評価に関する項目等を組み込みます。より実践的内容を充実させることで、ディープラーニングのビジネス活用促進を支援してまいります。
※改訂後の新シラバスの詳細発表、また新シラバスに対応した公式テキスト第2版の販売は2021年4月下旬頃を予定しています。
G検定を活用している会社にとって、この「より実践的内容を充実させる」という点は、期待が持てます。
今までもAIを学ぶ入り口としては優れた試験でしたが、受験後に「自分の業務に活かそう」という人を増やしている試験か?と問われると、そのような試験にはなっていなかったと思います。
4月下旬に詳細が発表されるそうなので、楽しみに待ちたいと思います。
こちらのブログに、『新しいG検定の勉強法』と『英語版 G検定』についての記事を投稿します。
今年の1月に実施された「英語版 G検定」第一回では、合格することができました。受験して強く感じたのが、『TOEICが抽選方式になって受験しずらくなっている現在、TOEIC 730点以上の人にお薦めできる英語の試験だ』ということでした。190問を2時間で解くので、リーディングが鍛えられます。
第一回の試験内容と、技術用語が「英語だとどのように表現されるか?」など解説する予定です。それでは、またお会いしましょう。