10月12日更新:中盤以降、加筆しました
昨日は、第11回目の「G検定」試験でした。今回も191問全てをリスト化しました。試験の振り返りや、今後の試験対策などにお使い下さい。
今回の試験は、シラバスが新しくなり、『公式テキスト第2版』が発売されてからの最初の試験になりました。
今回の試験の特徴をまとめると、
・前回の試験との変化は少ないが、昨年の試験と比べると新しいトピックが増加している
・「新シラバス表」と『公式テキスト第2版』から外れた問題は少なかった
試験を運営しているJDLAが、シラバスを新しくした理由として書いていた『よりビジネス的な側面を強化』も、少しだけですが試験に反映されていました。
7月試験から適用されるシラバスでは、DX化が進むニーズに対応し、よりビジネス的な側面を強化。「データ×AI」の活用を企画・推進する上で重要となるAIプロジェクトの計画・データ収集・法律/契約など、実践的な内容が追加されました。
全191問のうち「135問」(70%)は定番問題で、今までの試験対策・教材でも対応できる問題でした。
新シラバスの目的が反映されていると考えられる問題は「33問」(17%)
「新シラバス表」と『公式テキスト第2版』では扱われていない、対策が難しい問題は「23問」(12%)でした。
定番問題が7割で、新要素が2割以下だったということで、次回の11月の試験でも大幅な変更は無いと考えていいでしょう。今後は『公式テキスト第2版』を中心に、太字で書かれているトピックを「理解すること」に、安心して時間をかけられるようになりました。
全191問 問題リスト
出題された問題をそのまま書いてしまうのは禁止行為なので、ザックリとした内容に書き換えています。
■「新」・・・『公式テキスト第2版』と「新シラバス表」に記載されているトピック
■「対策」・・・『公式テキスト第2版』と「新シラバス表」にないトピックに【⚠】
■「不」・・・『正しくない~/不適切な選択肢を選べ』という問題に【✔】
番号 | 問題のカテゴリー | 新 | 対策 | 不 |
1 | AI効果 | |||
2 | Pythonの説明 | ✔ | ||
3 | 営業秘密の説明 | |||
4 | 解釈性(解釈可能性) | |||
5 | CRISP-DM | ⚫ | ||
6 | AI・ディープラーニングのビジネス活用 | ⚫ | ||
7 | 教師なし学習の手法 | |||
8 | ベイズ定理の式 | |||
9 | 次元削減として用いられない手法 | |||
10 | ビッグデータ | ✔ | ||
11 | 決定木:情報利得の最大化 | |||
12 | 音素の説明 | ⚠ | ||
13 | PoC段階でAIモデルを生成する目的 | ⚫ | ||
14 | define-by-runの説明 | |||
15 | 機械学習のモデル:損害や倫理への対応 | ✔ | ||
16 | アンサンブル学習の説明 | |||
17 | 探索木:幅優先/深さ優先探索 | |||
18 | DNNの順伝播の計算 | |||
19 | データセット/訓練/検証/テストデータ | |||
20 | AIの社会実装とビジネス利活用の説明 | ⚫ | ✔ | |
21 | 第1次AIブーム:探索や推論 | |||
22 | 顔認識技術:倫理的な問題 | ⚠ | ✔ | |
23 | AIに関する倫理ガイドライン | ✔ | ||
24 | バギングの説明 | |||
25 | 単純パーセプトロン | |||
26 | GDPRの説明 | |||
27 | パーソナルデータの利用:留意すべき点 | ⚠ | ✔ | |
28 | 自己回帰モデルによる分析対象例 | ⚫ | ||
29 | ResNet:Skip connection | |||
30 | ドロップアウトの説明 | |||
31 | メル尺度への変換が必要な理由 | ⚠ | ||
32 | Deep Learningのブラックボックス化:事例と対策 | ✔ | ||
33 | AIが持つ知的な処理能力 | ✔ | ||
34 | 日本の自動運転「レベル3」の説明 | |||
35 | 大域最適解/局所最適解/ハイパーパラメータ | |||
36 | DNNの順伝播の計算 | |||
37 | AI社会実装:倫理・法律などへの企業側の対処 | ⚫ | ✔ | |
38 | RNNの説明 | |||
39 | Deep Learning:盛り上がりの理由 | ✔ | ||
40 | LSTMの説明 | |||
41 | Deep Learningとデータの関係の説明 | |||
42 | ブースティングの説明 | |||
43 | AIへの敵対的な攻撃の特徴 | |||
44 | ウェブマイニングやデータマイニングの取り組み | |||
45 | 混同行列 | |||
46 | データ分析をビジネス適用する際の留意点 | ⚫ | ✔ | |
47 | 学習済みモデルの権利保護の説明 | ⚫ | ||
48 | プライバシー・バイ・デザインの説明 | |||
49 | 誤差逆伝播法の「勾配消失」を抑える方法 | ✔ | ||
50 | オープンデータセットを利用するメリット | ▲ | ✔ | |
51 | Rainbowに使われている手法 | ⚫ | ✔ | |
52 | 過学習をしている状態の説明 | |||
53 | BoWによる処理の説明 | |||
54 | part-ofの関係 | |||
55 | DQN | |||
56 | AIシステムへの攻撃や想定外の振る舞いへの備え | ✔ | ||
57 | 6面体サイコロの出る目の確立:Xの期待値 | ⚠ | ||
58 | 過学習の原因 | |||
59 | SVM:マージンの最大化 | |||
60 | AIのビジネス利活用 | ⚫ | ||
61 | GRU | |||
62 | NAS(Neural Architecture Search) | ⚫ | ||
63 | ディープフェイクの説明 | ✔ | ||
64 | 個人識別符号 | ⚠ | ||
65 | RNNが扱うデータ:系列データ | |||
66 | ReLU関数に負の値Xを与えた際の出力値 | |||
67 | Grad-CAM | ⚫ | ||
68 | 物体検出の説明 | |||
69 | RNNに期待されるメリット | |||
70 | イテレーション | |||
71 | EfficientNetの特徴 | |||
72 | AIの共同開発形式の留意点 | ⚫ | ⚠ | ✔ |
73 | ロボット制御における強化学習のメリット | |||
74 | GoogLeNetの説明 | |||
75 | 事前学習の手法 | |||
76 | チューリングテスト/ローブナーコンテスト | |||
77 | フォルマント | ⚫ | ||
78 | 離散確率変数XとYの相互情報量の説明 | ⚠ | ||
79 | ファインチューニング | |||
80 | ReLU関数 | |||
81 | 一般物体検知/セグメンテーション | |||
82 | 汎化性能 | |||
83 | GPUを使ったDeepLearningの説明 | |||
84 | ディープフェイクの説明 | ✔ | ||
85 | 強いAIと弱いAIの説明 | |||
86 | TPUの説明 | |||
87 | エキスパートシステム | |||
88 | LSTMの説明:RNNの問題点 | |||
89 | AIにおける透明性 | ⚫ | ✔ | |
90 | シリアス・ゲームの説明 | S | ||
91 | 転移学習・ファインチューニングの説明 | |||
92 | 偏微分/勾配降下法/確率的勾配降下法 | |||
93 | ソフトマックス関数 | |||
94 | FCNの特徴 | ▲ | ⚠ | |
95 | 正則化の説明 | |||
96 | 過学習を防ぐ、抑制する手法 | ✔ | ||
97 | 順伝播型ニューラルネットワーク | |||
98 | ハイパーパラメータの説明 | |||
99 | Adversarial attackと関連が深い内容 | |||
100 | RNNが系列データを扱うことが可能となった理由 | |||
101 | AIのビジネス活用時のリスク、危機への対処 | ⚫ | ✔ | |
102 | GPUの説明 | ✔ | ||
103 | 誤差逆伝播法の説明 | |||
104 | BERT | |||
105 | ディープブルーの探索手法の課題 | |||
106 | コサイン類似度 | ▲ | ⚠ | |
107 | プルーニング | S | ⚠ | |
108 | 重回帰分析の例 | ⚠ | ||
109 | 条件分岐を適切な回数に留める手法 | |||
110 | データリーケージの影響 | S | ⚠ | |
111 | TF-IDF | ⚫ | ||
112 | 転移学習の例 | |||
113 | RNN | |||
114 | 白色化 | ⚫ | ||
115 | 探索・推論 | |||
116 | モデル圧縮を行う目的 | S | ⚠ | ✔ |
117 | CycleGANの説明 | ⚫ | ||
118 | 匿名加工情報の説明 | |||
119 | 転移学習の説明 | |||
120 | GANの説明 | |||
121 | 音声の時系列データを扱う手法やモデル | ✔ | ||
122 | データ拡張手法の説明 | ✔ | ||
123 | 強化学習に適した課題 | |||
124 | 重みの微分計算を効率的に行う方法 | |||
125 | アナログ音声を特徴量に変換する流れ | ▲ | ⚠ | ✔ |
126 | カメラ画像利活用ガイドブック:留意点 | ✔ | ||
127 | CAM | ⚫ | ||
128 | AI・データの利用に関する契約ガイドライン | ⚫ | ||
129 | ネオコグニトロンの説明 | |||
130 | 単純パーセプトロンの欠点 | |||
131 | TPU | |||
132 | word2vec | |||
133 | ニューラルネットワークの説明 | ✔ | ||
134 | 説明可能なAIへの投資プログラムの試み | |||
135 | U-Net | ⚫ | ||
136 | 量子化 | S | ⚠ | |
137 | 深層強化学習の応用 | |||
138 | LSTMのゲートの名称 | |||
139 | ポアソン回帰によるモデル分析の対象例 | ⚫ | ||
140 | OCRの説明 | |||
141 | 学習済みモデルを知的財産として保護するには | ⚫ | ✔ | |
142 | Seq2Seqの説明 | |||
143 | 活性化関数の説明 | |||
144 | 知識獲得のボトルネックの説明 | |||
145 | 分散表現と関連性の深いもの | ⚫ | ||
146 | OpneAIがGPT-2の一般公開を懸念した理由 | ▲ | ⚠ | ✔ |
147 | LeNet→AlexNet→GoogLeNet→ResNet | |||
148 | k-means法 | |||
149 | Mini-max法 | |||
150 | GPT-3 | ⚫ | ||
151 | GANのジェネレーターの説明 | |||
152 | 確率的勾配降下法の説明 | |||
153 | 説明可能なAIの説明 | |||
154 | 途中で学習を打ち切る手法 | |||
155 | 学習率の説明 | ✔ | ||
156 | Adversarial Examples | ▲ | ⚠ | |
157 | 系列データを扱うDeep Learningの説明 | ✔ | ||
158 | CNN:再学習時の方法 | |||
159 | データ拡張 | |||
160 | CNNの構造上の特徴 | |||
161 | k-最近傍法 | |||
162 | サンプリング・バイアスの説明 | |||
163 | トイ・プロブレムの説明 | |||
164 | 強化学習の具体例:A3C | ⚫ | ||
165 | シンボルグラウンディング問題 | |||
166 | MNISTの説明 | |||
167 | 相関係数/偏相関係数/共分散/分散 | ⚠ | ||
168 | 知識ベースと推論エンジン | |||
169 | OpenPose | ⚫ | ||
170 | 構文解析の説明 | ⚫ | ||
171 | WaveNet | |||
172 | TF-IDFの説明 | ⚫ | ||
173 | k-分割交差検証が効果的な状況 | |||
174 | 蒸留 | |||
175 | 著作物を学習用データとして扱う場合の留意点 | ⚫ | ||
176 | 信頼性を備えたAI~、倫理的に~、Partnership on AI | |||
177 | 個人情報保護法の説明 | ✔ | ||
178 | パーセプトロンの説明 | ✔ | ||
179 | 音声認識エンジン | ✔ | ||
180 | 深層強化学習:問題と報酬の組み合わせ | |||
181 | ImageNetの説明 | |||
182 | 変分オートエンコーダの説明 | ▲ | ⚠ | |
183 | 個人情報保護法 | |||
184 | ベイズ推定の説明 | ⚠ | ||
185 | ResNet | |||
186 | 発明者に関する説明 | ⚠ | ✔ | |
187 | カメラ画像利活用ガイドブック:個人データ | |||
188 | 勾配消失問題 | |||
189 | MLOpsの説明 | ⚫ | ||
190 | 音声データ処理の流れ | ▲ | ⚠ | |
191 | データ拡張の目的 | ✔ |
「新」の枠に、【▲】や【S】と付いている問題があります。
▲=『公式テキスト第2版』に記載されているが、正解するためには本だけでは情報が足りない
S=「新シラバス表」に記載されている(『公式テキスト第2版』には記載なし)
【以下、合格発表後に更新】
G検定対策本8冊のなかで、今回の試験で最も「アタリ」だった本は、こちらでした。
『この1冊で合格! ディープラーニングG検定集中テキスト&問題集』(白紺本)
2021年11月の試験も、この本がナンバーワンの対策本になる可能性があります。その理由は、今回の試験は「シラバスが新しくなった第1回目の試験」なので、第2回で大きなリニューアルをするとは考えにくいためです。
今回から「分野別の得点率」が開示されるようになった
今までの合格発表は、「合格」「不合格」と書かれたメールが届くだけでした。(後日、合格した人だけに、合格証と
今回の合格発表から、「あなたの分野別の得点率」と「受験者全体の平均得点率」が一緒に届くことになりました。これはG検定の大きな進化だと感じました。再受験が半額となったことと併せて、再学習するモチベーションになります。
さらに、『ほとんど解けなかったけど、なぜか合格した。G検定ダメだな』という受験者を減らすことに繋がったと思います。
今後お願いしたい事は、合格証にも分野別の得点率を記載して欲しい!ということ。G検定が就職や転職の一つの武器になれたら、より真剣に勉強する人が増えると思うので、そのためにもTOEICのような偽造しずらい加工がされた「紙製の合格証」を期待します。
私の周りの数十名の受験者と、Twitterに得点率を公開して下さった方の情報を集計しました。(167名の皆さん、貴重な情報有難う御座います)
下の表は、全体のうちの一部になりますが、
注目したいのは、下の表になります。不合格となった人の得点率と、合格した人の合格率をご覧ください。今まで65%以上正解すれば合格だと予想していましたが、現実にはもっと少ない正解数で合格できるようになっていたようです。
全体の受験者は7,450人で、集計できたのは167人だけなので、不合格と合格の境界の精度は低いですが、参考にして頂けるかと思います。
『ディープラーニングの手法』の問題数が一番多く、次に『ディープラーニングの社会実装に向けて』の問題数が次に多いのは、今までの傾向と変わりません。『数理・統計』はたったの6問でした。
次回の試験は11月です。受験される方は頑張って下さい!
(本業を優先するため、こちらのブログは広告無し・無収益でマイペースに続けてきましたが、今後は更新頻度を上げて、試験対策だけでなく実ビジネスの話なども書いていきたいと思います。またお越し頂けると嬉しいです)