昨日(7月4日)に、第8回目の「G検定試験」が行われました。全200問を簡単にまとめましたので、復習などにお使い頂けると幸いです。
※「リスト」は、下の方にあります。
今回の試験は、過去2番目に大変だと感じました。
2017年の「第1回目」の試験は、『G検定 公式テキスト』や問題集が、一切無かったので、対策が難しかったのは仕方がないのですが、今回の試験では、問題集が4冊以上もあり、対策できた人は楽勝だろうなと予想していました。
しかし、予想は外れました。
今回の200問を振り返ったところ、以下の4冊でしっかり勉強した人でも、ギリギリ7割正解に持っていくが精一杯だったのではないでしょうか。
『G検定 公式テキスト』
『徹底攻略 ディープラーニングG検定 問題集』
『これ1冊で最短合格 ディープラーニングG検定ジェネラリスト 要点整理』
『スッキリわかる ディープラーニングG検定 テキスト& 問題演習』
試験後に、『受験して良かった。80%は自信をもって解けた』という満足感を持つには、上の数冊に加えて、このブログで紹介した「オンライン模擬テスト」と、お薦めの本、そして、定期的にAIの最新情報を読んでおくという対策が必要だと思います。
これが、『G検定、大変になったな』と感じた理由です。
今回の試験で「良かった点」は、新しいトピックの問題が増えて、古い話題についてが減ってくれたことです。自信を持って答えられない問題も多く、『もっと勉強しなきゃ』と反省させられました。
全200問 問題リスト
下のリストについて、簡単に説明します。
■「対策」・・・・・書籍で発売されている「問題集」に加えて、問題集に出ているキーワードを掘り下げて調べたり、AIの最新情報を収集するなどの対策が必要だと感じた問題を、【 ⚠=注意 】としました。
■「不正解を選ぶ」・・・・『正しくない~/不適切な選択肢を選べ』という問題に、チェックマークを付けています。
⚠・・・・・・・・・58問
不正解を選ぶ・・・・25問
番号 | 問題 | 対策 |
不正解を選ぶ
|
1 | AIの歴史 | ||
2 | AIの歴史 | ||
3 | AIの歴史 | ||
4 | AlexNet | ||
5 | ResNet | ||
6 | AIの歴史 | ||
7 | AIの歴史 | ||
8 | 自然言語処理・セマンティックウェブ | ||
9 | 自然言語処理・セマンティックウェブ | ||
10 | DNNのブームの理由 | ✔ | |
11 | ゲームで人間に勝てるAIを作る研究 | ||
12 | ゲームで人間に勝てるAIを作る研究 | ||
13 | モラベックのパラドックス | ||
14 | 入力の良い内部表現 | ||
15 | 自己符号化器 | ||
16 | 意味ネットワーク | ||
17 | Cycプロジェクト | ||
18 | シンボルグラウンディング問題 | ||
19 | 知識獲得のボトルネック | ||
20 | ネオコグニトロンについての説明 | ⚠ | |
21 | 19年5月の道路交通法の改正 | ||
22 | Kaggle | ||
23 | arXiv | ||
24 | Google Scholar | ||
25 | coursera | ||
26 | 改正道路運送車両法の「自動運転車」への搭載義務 | ⚠ | |
27 | プライバシー侵害の防止策:仕様段階からの組み込み | ⚠ | |
28 | 収集・生成したデータと、学習済みモデルの知的財産保護 | ⚠ | ✔ |
29 | データ利用条件のレビュー | ⚠ | ✔ |
30 | 人間中心のAI社会原則について | ||
31 | 匿名加工情報を扱う事業者への義務 | ⚠ | ✔ |
32 | 自律型致死兵器システムの研究開発:2020年4月の状況 | ⚠ | ✔ |
33 | 個人情報保護法の説明 | ⚠ | |
34 | GDPRの特色 | ⚠ | |
35 | デジタル・プラットフォーム事業者の取引規制ガイドライン | ⚠ | |
36 | 自動運転レベル3 | ||
37 | ディープ・フェイク | ||
38 | 透明性レポート | ⚠ | |
39 | 信頼性を備えたAI~/倫理的に調和~/Partnership on AI | ⚠ | |
40 | ELSIの「S」/元々は~の用語 | ||
41 | PDS | ⚠ | |
42 | 事前に指定した条件 | ⚠ | |
43 | AIが生成した創作物について、日本での知的財産制度上の説明 | ⚠ | |
44 | 説明可能なAIについて | ||
45 | 説明可能なAIについて | ||
46 | AIのブラックボックス化 | ||
47 | 学習済みモデルを騙すように作られたデータ | ||
48 | データや学習済みモデルの知的財産としての保護について | ⚠ | |
49 | 個人情報保護法 | ⚠ | ✔ |
50 | 会話ロボット「Tay」の事例 | ||
51 | XAIへの投資プログラムを発表した団体 | ||
52 | XAI投資プログラムでの試み | ||
53 | AIの共同開発での留意点 | ✔ | |
54 | GDPRの説明 | ⚠ | |
55 | 第三者の著作物を学習用データとして取り扱う場合 | ⚠ | |
56 | AIの社会実装で生じる倫理的・法的・社会的な課題 | ✔ | |
57 | ディープ・フェイクの説明 | ||
58 | 協調フィルタリング | ||
59 | 内容ベースフィルタリング | ||
60 | 形態素解析の説明 | ||
61 | BoWの説明 | ||
62 | トークンを低次元の空間における実数ベクトルとして表現する手法 | ⚠ | |
63 | 物体認識:画像にわずかな摂動を加えて生成したサンプル名 | ⚠ | |
64 | 文章をベクトル表現したあとに使われるコサイン類似度の説明 | ⚠ | |
65 | k-分割交差検証の特徴 | ||
66 | モデルの出力と正解ラベルの誤差を表現する関数 | ||
67 | 主成分分析の役割 | ||
68 | 回帰分析のモデルの当てはまりの良さを計る基準 | ⚠ | |
69 | 重回帰分析について | ||
70 | 回帰分析を用いて、目的変数Yを説明変数Xで説明するための方法 | ⚠ | |
71 | k-means | ||
72 | ベイズ推定の説明 | ⚠ | |
73 | サイコロの出る目の確率についての式、Xの期待値 | ⚠ | |
74 | -2 { (最大対数尤度) ー (最尤推定したパラメータ数) } | ⚠ | |
75 | 確率密度関数の式の確率分布 | ⚠ | |
76 | 隠れマルコフモデルの説明 | ⚠ | |
77 | サポートベクトルマシンの説明 | ||
78 | サポートベクトルマシンの説明 | ||
79 | サポートベクトルマシンの説明 | ||
80 | テキストデータに特異値分解を適用したLSI | ||
81 | 文章中のトピックを潜在変数としてモデル化したLDA | ||
82 | 単純パーセプトロン | ||
83 | 活性化関数 | ||
84 | 情報量は情報の珍しさ | ⚠ | |
85 | 目的関数の値の最小化:最適化手法 | ✔ | |
86 | 回帰問題の説明 | ||
87 | 汎化性能 | ||
88 | 混同行列 | ||
89 | 過学習の説明 | ||
90 | 単回帰分析結果の解釈についての説明(計算) | ||
91 | グリッドサーチ | ||
92 | 条件分岐を適切な回数で留める手法 | ||
93 | アンサンブル学習 | ||
94 | バギングに関する説明 | ||
95 | 決定木:条件分岐 | ||
96 | 決定木:情報利得の最大化 | ||
97 | 交差検証の説明 | ||
98 | 偏微分問題(計算) | ||
99 | 多層パーセプトロンでの「ハイパーバラメータ」 | ||
100 | グローバルアベレージプーリングの説明 | ⚠ | |
101 | マックスプーリングのネットワークに誤差を逆伝播する際の処理 | ⚠ | |
102 | マックスプーリングの特徴 | ||
103 | マックスプーリングと平均値プーリングの説明 | ⚠ | |
104 | 勾配消失問題、勾配爆発問題の説明 | ⚠ | ✔ |
105 | 転移学習とファインチューニングの説明 | ⚠ | ✔ |
106 | 計算グラフ(簡単な計算問題) | ||
107 | 逆伝播:下流から上流への値 | ||
108 | 多クラス分類での、出力層で用いる活性化関数 | ||
109 | CNN:提案された順番 | ||
110 | 過学習をしている状態の説明 | ||
111 | 訓練誤差 | ||
112 | 最小化 | ||
113 | 汎化誤差 | ||
114 | DNNが予測を行う際の計算規則の説明:重み | ||
115 | DNNが予測を行う際の計算規則の説明:バイアス | ||
116 | DNNが予測を行う際の計算規則の説明:活性化関数 | ||
117 | 多層パーセプトロンの説明 | ||
118 | ドロップアウト | ||
119 | バッチ正規化 | ||
120 | データ拡張 | ||
121 | L2正則化 | ||
122 | RNNに関する説明 | ||
123 | どのベクトルを重要視するか学習させる仕組み | ⚠ | |
124 | 損失関数 | ||
125 | イテレーション | ||
126 | エポック | ||
127 | マルチモーダル | ||
128 | skip-gramの説明 | ||
129 | CBOWの説明 | ||
130 | U-Netの説明 | ⚠ | |
131 | デコーダ側の各層から物体検出を行う手法 | ⚠ | |
132 | 強化学習:アクタークリック法 | ⚠ | |
133 | BERTの説明 | ⚠ | |
134 | FCNの説明 | ⚠ | ✔ |
135 | SSDの説明 | ⚠ | |
136 | 物体検出を解くモデル | ✔ | |
137 | セグメンテーション、3つのタスク名 | ⚠ | |
138 | MAMLの説明 | ⚠ | ✔ |
139 | LSTMのゲート数 | ||
140 | PB→EB→ZB→YB | ||
141 | 照応解析の説明 | ||
142 | 談話構造解析の説明 | ||
143 | 行動価値関数Qの説明 | ⚠ | |
144 | 単語埋め込みモデルの説明 | ||
145 | N-gram | ||
146 | 構文解析の説明 | ||
147 | 分散表現と関連性の深いもの | ||
148 | キャプション生成と関連性の深いもの | ||
149 | 物体検出と関連性の深いもの | ||
150 | セマンティックセグメンテーションと関連の深いもの | ||
151 | OCRと関連性の深いもの | ||
152 | 事前学習:映像から物体検出を行う課題 | ⚠ | |
153 | ニューラルネットワークの多層化に貢献した活性化関数 | ||
154 | GANに関する説明 | ⚠ | |
155 | WaveNet | ||
156 | モメンタム法/Nesterov Accelerate Gradient | ⚠ | |
157 | CNNの畳み込み:スライド幅の計算 | ||
158 | CNNの計算 | ||
159 | CNNの計算:プーリングの適用回数 | ||
160 | 強化学習の収益の説明 | ⚠ | |
161 | 確率的勾配降下法の説明 | ||
162 | ドロップアウトの説明 | ⚠ | ✔ |
163 | Q学習と比較した方策勾配法の特徴について | ⚠ | ✔ |
164 | 制限付きボルツマンマシンの説明 | ✔ | |
165 | RNNに期待される利点 | ||
166 | RNNで文章データを扱う際の説明 | ✔ | |
167 | RNNにおける教師強制:1時刻前/翻訳 | ⚠ | |
168 | RNNにおける教師強制(不正解を選ぶ) | ⚠ | ✔ |
169 | ゲートが存在するRNN | ||
170 | KLダイバージェンスの特徴 | ⚠ | ✔ |
171 | ReLU関数の説明 | ||
172 | LSTMの説明 | ✔ | |
173 | バッチ学習/オンライン学習/ミニバッチ学習 | ||
174 | VGGNetとResNetの相違 | ||
175 | DQN→AlphaGo→AlphaGoZero→AlphaStar | ||
176 | RNN:再帰構造 | ||
177 | RNN:系列データ | ||
178 | RNN:情報を一時的に記憶させること | ||
179 | 強化学習で用いられる手法 | ✔ | |
180 | LSTMの説明 | ||
181 | LSTMの説明 | ||
182 | CNNの特徴 | ||
183 | インセプションモジュールの説明 | ||
184 | t-SNE:「t」の意味 | ||
185 | 強化学習:エージェントの説明 | ||
186 | 強化学習の具体例 | ||
187 | 行動価値関数の関数近似にCNNを用いた手法 | ||
188 | GoogLeNetの説明 | ||
189 | 強化学習で学習することが適した課題 | ||
190 | 強化学習の手法の説明 | ⚠ | |
191 | R-CNNの説明 | ⚠ | ✔ |
192 | 方策勾配法の説明 | ⚠ | |
193 | 価値反復法の説明 | ⚠ | |
194 | 誤差逆伝播法の説明 | ||
195 | CNNの画像認識モデルの説明 | ✔ | |
196 | 一般物体検出 or セグメンテーションへの分類 | ||
197 | アンサンブル学習の説明 | ||
198 | 学習率に関する説明 | ✔ | |
199 | ImageNetに関する説明 | ||
200 | MNISTに関する説明 |
G検定のお陰で、自分の仕事に関係ない自然言語処理など、勉強するモチベーションができるので助かってます。もちろん、11月の試験も受けますよ。
今回の合格者数と、合格率は?
今回、受験料が半額で、Youtubeなどで広告を多く打ったことで、受験者数は過去最大になりました。前回の6,298人に対して、今回は1万人以上の人が受験したそうです。私は今回、合格率は下がるだろうなと予想しましたが、こちらは今までとあまり変わらず「68.9%」という結果になりました。
試験を運営しているJDLAの岡田事務局長が、『オンライン説明会「G検定の疑問・質問全部答えます!」』で話していましたが、
・合否については、松尾先生が最終結論を出している
そうです。ということは、今までと合格率を大きく変えないように「調整を入れた」ということでしょう。G検定は「自分のビジネスにAIを活用する前に、何から勉強すればいいのか分からない人のための丁度いい入り口」になることが目的と言われているので、この調整は、松尾先生から、将来のAI活用人材への応援なのかもしれません。
今まで8回の試験が行われ、G検定の対策本や講座も充実してきました。
お金をあまりかけず、効果的で、高い満足度を得られる「勉強法・取り組み方」を、以下にまとめたので、次回受験される方はご覧下さい。