勉強法

2020年 7月 4日「G検定」200問 振り返り

G検定7月4日の振り返り

昨日(7月4日)に、第8回目の「G検定試験」が行われました。全200問を簡単にまとめましたので、復習などにお使い頂けると幸いです。

※「リスト」は、下の方にあります。

今回の試験は、過去2番目に大変だと感じました。

2017年の「第1回目」の試験は、『G検定 公式テキスト』や問題集が、一切無かったので、対策が難しかったのは仕方がないのですが、今回の試験では、問題集が4冊以上もあり、対策できた人は楽勝だろうなと予想していました。

しかし、予想は外れました。
今回の200問を振り返ったところ、以下の4冊でしっかり勉強した人でも、ギリギリ7割正解に持っていくが精一杯だったのではないでしょうか。

『G検定 公式テキスト』
『徹底攻略 ディープラーニングG検定 問題集』
『これ1冊で最短合格 ディープラーニングG検定ジェネラリスト 要点整理』
『スッキリわかる ディープラーニングG検定 テキスト& 問題演習』

G検定の新たな参考書

試験後に、『受験して良かった。80%は自信をもって解けた』という満足感を持つには、上の数冊に加えて、このブログで紹介した「オンライン模擬テスト」と、お薦めの本、そして、定期的にAIの最新情報を読んでおくという対策が必要だと思います。

これが、『G検定、大変になったな』と感じた理由です。

今回の試験で「良かった点」は、新しいトピックの問題が増えて、古い話題についてが減ってくれたことです。自信を持って答えられない問題も多く、『もっと勉強しなきゃ』と反省させられました。

 

全200問 問題リスト

下のリストについて、簡単に説明します。

■「対策」・・・・・書籍で発売されている「問題集」に加えて、問題集に出ているキーワードを掘り下げて調べたり、AIの最新情報を収集するなどの対策が必要だと感じた問題を、【 =注意 】としました。

■「不正解を選ぶ」・・・・『正しくない~/不適切な選択肢を選べ』という問題に、チェックマークを付けています。

⚠・・・・・・・・・58問
不正解を選ぶ・・・・25問

番号 問題 対策
不正解を選ぶ
1 AIの歴史
2 AIの歴史
3 AIの歴史
4 AlexNet
5 ResNet
6 AIの歴史
7 AIの歴史
8 自然言語処理・セマンティックウェブ
9 自然言語処理・セマンティックウェブ
10 DNNのブームの理由
11 ゲームで人間に勝てるAIを作る研究
12 ゲームで人間に勝てるAIを作る研究
13 モラベックのパラドックス
14 入力の良い内部表現
15 自己符号化器
16 意味ネットワーク
17 Cycプロジェクト
18 シンボルグラウンディング問題
19 知識獲得のボトルネック
20 ネオコグニトロンについての説明
21 19年5月の道路交通法の改正
22 Kaggle
23 arXiv
24 Google Scholar
25 coursera
26 改正道路運送車両法の「自動運転車」への搭載義務
27 プライバシー侵害の防止策:仕様段階からの組み込み
28 収集・生成したデータと、学習済みモデルの知的財産保護
29 データ利用条件のレビュー
30 人間中心のAI社会原則について
31 匿名加工情報を扱う事業者への義務
32 自律型致死兵器システムの研究開発:2020年4月の状況
33 個人情報保護法の説明
34 GDPRの特色
35 デジタル・プラットフォーム事業者の取引規制ガイドライン
36 自動運転レベル3
37 ディープ・フェイク
38 透明性レポート
39 信頼性を備えたAI~/倫理的に調和~/Partnership on AI
40 ELSIの「S」/元々は~の用語
41 PDS
42 事前に指定した条件
43 AIが生成した創作物について、日本での知的財産制度上の説明
44 説明可能なAIについて
45 説明可能なAIについて
46 AIのブラックボックス化
47 学習済みモデルを騙すように作られたデータ
48 データや学習済みモデルの知的財産としての保護について
49 個人情報保護法
50 会話ロボット「Tay」の事例
51 XAIへの投資プログラムを発表した団体
52 XAI投資プログラムでの試み
53 AIの共同開発での留意点
54 GDPRの説明
55 第三者の著作物を学習用データとして取り扱う場合
56 AIの社会実装で生じる倫理的・法的・社会的な課題
57 ディープ・フェイクの説明
58 協調フィルタリング
59 内容ベースフィルタリング
60 形態素解析の説明
61 BoWの説明
62 トークンを低次元の空間における実数ベクトルとして表現する手法
63 物体認識:画像にわずかな摂動を加えて生成したサンプル名
64 文章をベクトル表現したあとに使われるコサイン類似度の説明
65 k-分割交差検証の特徴
66 モデルの出力と正解ラベルの誤差を表現する関数
67 主成分分析の役割
68 回帰分析のモデルの当てはまりの良さを計る基準
69 重回帰分析について
70 回帰分析を用いて、目的変数Yを説明変数Xで説明するための方法
71 k-means
72 ベイズ推定の説明
73 サイコロの出る目の確率についての式、Xの期待値
74 -2 { (最大対数尤度) ー (最尤推定したパラメータ数) }
75 確率密度関数の式の確率分布
76 隠れマルコフモデルの説明
77 サポートベクトルマシンの説明
78 サポートベクトルマシンの説明
79 サポートベクトルマシンの説明
80 テキストデータに特異値分解を適用したLSI
81 文章中のトピックを潜在変数としてモデル化したLDA
82 単純パーセプトロン
83 活性化関数
84 情報量は情報の珍しさ
85 目的関数の値の最小化:最適化手法
86 回帰問題の説明
87 汎化性能
88 混同行列
89 過学習の説明
90 単回帰分析結果の解釈についての説明(計算)
91 グリッドサーチ
92 条件分岐を適切な回数で留める手法
93 アンサンブル学習
94 バギングに関する説明
95 決定木:条件分岐
96 決定木:情報利得の最大化
97 交差検証の説明
98 偏微分問題(計算)
99 多層パーセプトロンでの「ハイパーバラメータ」
100 グローバルアベレージプーリングの説明
101 マックスプーリングのネットワークに誤差を逆伝播する際の処理
102 マックスプーリングの特徴
103 マックスプーリングと平均値プーリングの説明
104 勾配消失問題、勾配爆発問題の説明
105 転移学習とファインチューニングの説明
106 計算グラフ(簡単な計算問題)
107 逆伝播:下流から上流への値
108 多クラス分類での、出力層で用いる活性化関数
109 CNN:提案された順番
110 過学習をしている状態の説明
111 訓練誤差
112 最小化
113 汎化誤差
114 DNNが予測を行う際の計算規則の説明:重み
115 DNNが予測を行う際の計算規則の説明:バイアス
116 DNNが予測を行う際の計算規則の説明:活性化関数
117 多層パーセプトロンの説明
118 ドロップアウト
119 バッチ正規化
120 データ拡張
121 L2正則化
122 RNNに関する説明
123 どのベクトルを重要視するか学習させる仕組み
124 損失関数
125 イテレーション
126 エポック
127 マルチモーダル
128 skip-gramの説明
129 CBOWの説明
130 U-Netの説明
131 デコーダ側の各層から物体検出を行う手法
132 強化学習:アクタークリック法
133 BERTの説明
134 FCNの説明
135 SSDの説明
136 物体検出を解くモデル
137 セグメンテーション、3つのタスク名
138 MAMLの説明
139 LSTMのゲート数
140 PB→EB→ZB→YB
141 照応解析の説明
142 談話構造解析の説明
143 行動価値関数Qの説明
144 単語埋め込みモデルの説明
145 N-gram
146 構文解析の説明
147 分散表現と関連性の深いもの
148 キャプション生成と関連性の深いもの
149 物体検出と関連性の深いもの
150 セマンティックセグメンテーションと関連の深いもの
151 OCRと関連性の深いもの
152 事前学習:映像から物体検出を行う課題
153 ニューラルネットワークの多層化に貢献した活性化関数
154 GANに関する説明
155 WaveNet
156 モメンタム法/Nesterov Accelerate Gradient
157 CNNの畳み込み:スライド幅の計算
158 CNNの計算
159 CNNの計算:プーリングの適用回数
160 強化学習の収益の説明
161 確率的勾配降下法の説明
162 ドロップアウトの説明
163 Q学習と比較した方策勾配法の特徴について
164 制限付きボルツマンマシンの説明
165 RNNに期待される利点
166 RNNで文章データを扱う際の説明
167 RNNにおける教師強制:1時刻前/翻訳
168 RNNにおける教師強制(不正解を選ぶ)
169 ゲートが存在するRNN
170 KLダイバージェンスの特徴
171 ReLU関数の説明
172 LSTMの説明
173 バッチ学習/オンライン学習/ミニバッチ学習
174 VGGNetとResNetの相違
175 DQN→AlphaGo→AlphaGoZero→AlphaStar
176 RNN:再帰構造
177 RNN:系列データ
178 RNN:情報を一時的に記憶させること
179 強化学習で用いられる手法
180 LSTMの説明
181 LSTMの説明
182 CNNの特徴
183 インセプションモジュールの説明
184 t-SNE:「t」の意味
185 強化学習:エージェントの説明
186 強化学習の具体例
187 行動価値関数の関数近似にCNNを用いた手法
188 GoogLeNetの説明
189 強化学習で学習することが適した課題
190 強化学習の手法の説明
191 R-CNNの説明
192 方策勾配法の説明
193 価値反復法の説明
194 誤差逆伝播法の説明
195 CNNの画像認識モデルの説明
196 一般物体検出 or セグメンテーションへの分類
197 アンサンブル学習の説明
198 学習率に関する説明
199 ImageNetに関する説明
200 MNISTに関する説明

G検定のお陰で、自分の仕事に関係ない自然言語処理など、勉強するモチベーションができるので助かってます。もちろん、11月の試験も受けますよ。

 

今回の合格者数と、合格率は?

今回、受験料が半額で、Youtubeなどで広告を多く打ったことで、受験者数は過去最大になりました。前回の6,298人に対して、今回は1万人以上の人が受験したそうです。私は今回、合格率は下がるだろうなと予想しましたが、こちらは今までとあまり変わらず「68.9%」という結果になりました。

試験を運営しているJDLAの岡田事務局長が、『オンライン説明会「G検定の疑問・質問全部答えます!」』で話していましたが、

・合否については、松尾先生が最終結論を出している

そうです。ということは、今までと合格率を大きく変えないように「調整を入れた」ということでしょう。G検定は「自分のビジネスにAIを活用する前に、何から勉強すればいいのか分からない人のための丁度いい入り口」になることが目的と言われているので、この調整は、松尾先生から、将来のAI活用人材への応援なのかもしれません。

今まで8回の試験が行われ、G検定の対策本や講座も充実してきました。

お金をあまりかけず、効果的で、高い満足度を得られる「勉強法・取り組み方」を、以下にまとめたので、次回受験される方はご覧下さい。

赤本vs青本
G検定 対策本【比較】赤本vs青本『これ1冊で最短合格』と『スッキリわかる』 『G検定』と名付けられている本と、公式の「推薦図書」の本を足すと、10冊以上の本があるので、どれを買えばいいのか悩んでしまうと思...