勉強法

2019年 11月 9日「G検定」226問 振り返り

19年11月9日試験振り返り

第6回目の「G検定」が、11月9日(土)に行われました。
※1問目から226問目まで「リスト」にしました。下の方にあります。

今回も『公式テキスト』と『徹底攻略 ディープラーニングG検定』の2冊でしっかり勉強していれば、226問中の179問(約8割)は解けるようになっていました。

前回出題された『AI白書2019』からの時事問題は、2017年の集計を踏まえた問題だったので、そういった古い情報を問う問題がなくなった点は良かったと思います。

 

2020年から試験内容は「変わる?変わらない?」

2017年の試験から、G検定が受験者に対して『ここは大事だから、理解してね』という部分は変わっていないので、今後もその部分は変わらないと思います。

変わるとしたら以下の3つかなと予想しています。
1,合格/不合格だけでなく、「正解数」の導入
2,ビジネス寄りの問題の増加
3,不親切なところの改善

G検定の合格はあくまで「通過点」で、そこから勉強を続けて自分の仕事に活かせるまでになることが目標なので、単に「合格」と伝えるよりも『あなたは、まだこんなに不正解が多いですよ』と伝えてあげた方が本人のためにもいいでしょう。

Twitterでの合格コメントには、毎回『こんなんで合格できた。試験としてどうなんだ?』という感想が出てきており、せっかく合格してもモヤモヤした気持ちが残るのは単に合格・不合格という情報しかないためかなと思います。

TOEICのような「スコア」にしてしまうと、そのスコアの算出方法に対してモヤモヤとした気持ちを持たれてしまうので、シンプルに正解数もしくは不正解数がいいと思います。いっそのこと点数制にするなら「ジェネラリスト検定」という名称を止めて、「ジェネラリスト試験」とリニューアルしてもいいかもしれませんね。

 

次に、「ビジネス寄りの問題の増加」です。

日本ディープラーニング協会が定義している「ジェネラリスト」が、

ディープラーニングの基礎知識を有し、適切な活用方針を決定して事業応用する能力を持つ人材

となっているので、もっとビジネス寄り・現場寄りの問題も増えていくのかなと予想しています。具体的には『G検定 公式テキスト』の第8章と第9章の中の「アセスメント→PoC→開発→追加学習」や「ウォータフォール型/アジャイル型」などでしょうか。

 

3番目の「不親切なところの改善」です。

『この中から不正解を選びなさい。』という問題が出題されます。このタイプの問題はこの中から不正解を選びなさい。文字を太字にして大きくするなど改善してほしいですね。

「問題文を正確に読んでいる/正確な対応ができる」ことを測る試験ではないので、それぐらいの配慮は必要かと思います。(TOEIC試験でも、NOT問題は「NOT」が太字になっていたと思います)

 

全226問 問題リスト

下のリストについて説明します。

■「問題」・・・・問題自体書いてしまうと「禁止行為」に触れてしまうので、問題のカテゴリーのようなものを書きました。

■「対策」・・・・『公式テキスト』と『徹底攻略 ディープラーニングG検定』だけでなく、さらに掘り下げた対策をしておく必要がある問題などは【 d = deep 】としました。

■「間違い選ぶ」・・・・『正しくない~/不適切な~/関連のない~/指していない~/含まれない~選択肢を選べ』という問題に、チェックマークを付けています。

番号問題対策間違いを選ぶ
1AIの歴史
2AIの歴史
3AIの歴史
4AlexNet
5ResNet
6AIの歴史
7AIの歴史
8自然言語処理
9セマンティックウェブ
10DNNのブームの理由
11ディープブルー
12ディープブルー
13用語の意味
14チューリングテスト
15イライザ
16モラベックのパラドックス
17ディープラーニングの特徴量d
18自己符号化器d
19ローブナーコンテスト
20意味ネットワーク
21Cycプロジェクト
22シンボルグラウンディング問題
23フレーム問題
24DeepLearningによって発展したもの
25知識獲得のボトルネック
26AI 効果
27改正著作権法30条の4第の2号d
28自然言語処理の産業応用例d
29学習済みモデルの権利保護d
30自動運転のレベル別の説明
31自動運転のレベル別の説明
32道路交通法の改正d
33道路交通法改正後のレベル3d
34AIによる事故の責任d
35マイクロソフトの「Tay問題」
36Googleフォトの「ゴリラ問題」
37自動運転の日本とアメリカの状況d
38自動運転の日本とアメリカの状況d
39個人属性や行動特性の法律ガイドラインd
40自立型致死兵器 LAWSd
41Kaggle
42arXiv
43Google Scholar
44coursera
45EU一般データ保護規制 GDPR
46韓国科学技術院KAISTの問題
47データやモデルの保護d
48データやモデルの保護d
49システム開発で委託者と受託者の義務d
50DLの説明困難性への試みd
51DLの説明困難性への試みd
52データ管理の仕組みd
53データ管理の仕組みd
54論文閲覧サイトと実装コードサイト
55パートナーシップAI
56殺人ロボット3段階d
57FATという研究領域
58FATという研究領域
59FATという研究領域
60AIの社会実装に向けた課題d
61蒸留モデル
622019年3月の日本政府のAI戦略d
632019年3月の日本政府のAI戦略d
64最新の言語処理手法d
65AIの不平等が起こる原因
66著作権法d
67再現性の危機d
68教師あり/なし学習/強化学習
69教師あり/なし学習/強化学習
70教師あり/なし学習/強化学習
71協調フィルタリング
72内容ベースフィルタリング
73クラスタリング
74k-means法
75勾配ブースティング
76計算問題:パーセプトロン
77SVMの説明
78SVMの説明
79SVMの説明
80計算問題
81LSI
82LDA
83決定木の説明
84決定木の説明
85単純パーセプトロン
86活性化関数
87アフィン変換d
88ベイズ定理の式d
89過学習への対策
90過学習への対策
91正答率・適合率・再現率・F値
92正答率・適合率・再現率・F値
93正答率・適合率・再現率・F値
94正答率・適合率・再現率・F値
95形態素解析
96クレンジング
97BoW
98TF-IDF
99Word2vec
100k-means
101主成分分析
102F値の計算問題
103正則化
104スパースなデータ
105ロジスティック回帰の説明
106ロジスティック回帰の説明
107ロジスティック回帰の説明
108交差検証の説明
109交差検証の説明
110情報量は情報の珍しさを示すd
111情報理論についての説明d
112活性化関数
113過学習をしている状態のグラフ
114ボルツマンマシンd
115重み
116バイアス
117活性化関数
118ハイパーパラメータ
119学習率
120訓練誤差・汎化誤差
121訓練誤差・汎化誤差
122訓練誤差・汎化誤差
123確率的勾配降下法
124オンライン学習
125ミニバッチ学習
126バッチ学習
127自己符号化器
128自己符号化器
129自己符号化器
130イテレーション・エポック
131イテレーション・エポック
132教師ありなし学習/強化学習
133CNN・RNN
134CNN・RNN
135CNN・RNN
136CNN・RNN
137Chainar
138TensorFlow
139Caffed
140Keras
141多層パーセプトロン
142順伝播型
143ドロップアウト
144バッチ正規化
145データ拡張
146L2正則化
147DQN→AlphaGo→Zero→Stard
148グレースケール化
149平滑化
150ヒストグラム平坦化
151順伝播型NN
152畳み込み層
153プーリング層
154再帰構造
155系列データ
156RNNの説明
157強化学習で用いられる手法d
158ステップ関数
159シグモイド関数
160ReLU関数
161ソフトマックス関数
162LSTMの説明
163LSTMの説明
164多層構造
165並列構造
166GANの説明
167GANの説明
168Transformerの特徴d
169t-SNEの「t」の説明d
170強化学習のエージェント
171強化学習の具体例
172強化学習の説明
173深層強化学習の説明
174DQN
175強化学習の手法d
176方策関数ベースの強化学習
177累積報酬最大化方策を勾配で学習d
178強化学習の説明
179強化学習の説明
180強化学習の説明
181強化学習の問題点
182強化学習の問題点
183強化学習の問題点
184強化学習の問題点d
185強化学習の問題点
186CNNの「出力画像のサイズ」
187既存モデルの再利用
188既存モデルの再利用d
189隠れマルコフモデルd
190WaveNet
191イアン=グッドフェロー
192GPU
193学習率
194GoogleNetの説明
195LSTMのゲート数
196画像処理に関連する技術d
197PB→EB→ZB→YB
198強化学習の動向d
199深層強化学習
200マルチモーダル
201一気通貫学習
202キャプション生成
203照応解析
204談話構造解析
205R-CNN
206YOLO
207SSD
208DLの様々な分野への応用
209Word2Vecの説明
210Word2Vecの説明
211BERTの説明d
212BERTの説明d
213行動価値関数Qの説明d
214単語埋め込みモデルの説明
215RNNでは無いもの
216単語や文章表現を得られないモデル
217単語埋め込みモデルでないもの
218Attention
219RNN・CNN
220n-gramd
221形態素解析
222構文解析
223分散表現
224物体検出
225セマンティックセグメンテーション
226OCR

「間違いを選ぶ」問題が、意地悪なタイミングで出てくるので注意したいところです。

前回の問題リストと併せて見てみると、出題範囲がつかめると思います。それを踏まえて勉強するのが最も効率的だと思います。

2020年の最初の試験は、3月14日になります。