勉強法

2020年 7月 4日「G検定」200問 振り返り

G検定7月4日の振り返り

昨日(7月4日)に、第8回目の「G検定試験」が行われました。全200問を簡単にまとめましたので、復習などにお使い頂けると幸いです。

※「リスト」は、下の方にあります。

今回の試験は、過去2番目に大変だと感じました。

2017年の「第1回目」の試験は、『G検定 公式テキスト』や問題集が、一切無かったので、対策が難しかったのは仕方がないのですが、今回の試験では、問題集が4冊以上もあり、対策できた人は楽勝だろうなと予想していました。

しかし、予想は外れました。
今回の200問を振り返ったところ、以下の4冊でしっかり勉強した人でも、ギリギリ7割正解に持っていくが精一杯だったのではないでしょうか。

『G検定 公式テキスト』
『徹底攻略 ディープラーニングG検定 問題集』
『これ1冊で最短合格 ディープラーニングG検定ジェネラリスト 要点整理』
『スッキリわかる ディープラーニングG検定 テキスト& 問題演習』

G検定の新たな参考書

試験後に、『受験して良かった。80%は自信をもって解けた』という満足感を持つには、上の数冊に加えて、このブログで紹介した「オンライン模擬テスト」と、お薦めの本、そして、定期的にAIの最新情報を読んでおくという対策が必要だと思います。

これが、『G検定、大変になったな』と感じた理由です。

 

今年3月の「G検定 試験」の後に発売された、『これ1冊で最短合格~』と『スッキリわかる~』の2冊についての詳しいレビューを、後日このブログに出す予定です。(既に完成していましたが、今回の試験を踏まえて、書き直そうと思います)

今回の試験で「良かった点」は、新しいトピックの問題が増えて、古い話題についてが減ってくれたことです。自信を持って答えられない問題も多く、『もっと勉強しなきゃ』と反省させられました。

 

全200問 問題リスト

下のリストについて、簡単に説明します。

■「対策」・・・・・書籍で発売されている「問題集」に加えて、問題集に出ているキーワードを掘り下げて調べたり、AIの最新情報を収集するなどの対策が必要だと感じた問題を、【 =注意 】としました。

■「不正解を選ぶ」・・・・『正しくない~/不適切な選択肢を選べ』という問題に、チェックマークを付けています。

⚠・・・・・・・・・58問
不正解を選ぶ・・・・25問

番号問題対策
不正解を選ぶ
1AIの歴史
2AIの歴史
3AIの歴史
4AlexNet
5ResNet
6AIの歴史
7AIの歴史
8自然言語処理・セマンティックウェブ
9自然言語処理・セマンティックウェブ
10DNNのブームの理由
11ゲームで人間に勝てるAIを作る研究
12ゲームで人間に勝てるAIを作る研究
13モラベックのパラドックス
14入力の良い内部表現
15自己符号化器
16意味ネットワーク
17Cycプロジェクト
18シンボルグラウンディング問題
19知識獲得のボトルネック
20ネオコグニトロンについての説明
2119年5月の道路交通法の改正
22Kaggle
23arXiv
24Google Scholar
25coursera
26改正道路運送車両法の「自動運転車」への搭載義務
27プライバシー侵害の防止策:仕様段階からの組み込み
28収集・生成したデータと、学習済みモデルの知的財産保護
29データ利用条件のレビュー
30人間中心のAI社会原則について
31匿名加工情報を扱う事業者への義務
32自律型致死兵器システムの研究開発:2020年4月の状況
33個人情報保護法の説明
34GDPRの特色
35デジタル・プラットフォーム事業者の取引規制ガイドライン
36自動運転レベル3
37ディープ・フェイク
38透明性レポート
39信頼性を備えたAI~/倫理的に調和~/Partnership on AI
40ELSIの「S」/元々は~の用語
41PDS
42事前に指定した条件
43AIが生成した創作物について、日本での知的財産制度上の説明
44説明可能なAIについて
45説明可能なAIについて
46AIのブラックボックス化
47学習済みモデルを騙すように作られたデータ
48データや学習済みモデルの知的財産としての保護について
49個人情報保護法
50会話ロボット「Tay」の事例
51XAIへの投資プログラムを発表した団体
52XAI投資プログラムでの試み
53AIの共同開発での留意点
54GDPRの説明
55第三者の著作物を学習用データとして取り扱う場合
56AIの社会実装で生じる倫理的・法的・社会的な課題
57ディープ・フェイクの説明
58協調フィルタリング
59内容ベースフィルタリング
60形態素解析の説明
61BoWの説明
62トークンを低次元の空間における実数ベクトルとして表現する手法
63物体認識:画像にわずかな摂動を加えて生成したサンプル名
64文章をベクトル表現したあとに使われるコサイン類似度の説明
65k-分割交差検証の特徴
66モデルの出力と正解ラベルの誤差を表現する関数
67主成分分析の役割
68回帰分析のモデルの当てはまりの良さを計る基準
69重回帰分析について
70回帰分析を用いて、目的変数Yを説明変数Xで説明するための方法
71k-means
72ベイズ推定の説明
73サイコロの出る目の確率についての式、Xの期待値
74-2 { (最大対数尤度) ー (最尤推定したパラメータ数) }
75確率密度関数の式の確率分布
76隠れマルコフモデルの説明
77サポートベクトルマシンの説明
78サポートベクトルマシンの説明
79サポートベクトルマシンの説明
80テキストデータに特異値分解を適用したLSI
81文章中のトピックを潜在変数としてモデル化したLDA
82単純パーセプトロン
83活性化関数
84情報量は情報の珍しさ
85目的関数の値の最小化:最適化手法
86回帰問題の説明
87汎化性能
88混同行列
89過学習の説明
90単回帰分析結果の解釈についての説明(計算)
91グリッドサーチ
92条件分岐を適切な回数で留める手法
93アンサンブル学習
94バギングに関する説明
95決定木:条件分岐
96決定木:情報利得の最大化
97交差検証の説明
98偏微分問題(計算)
99多層パーセプトロンでの「ハイパーバラメータ」
100グローバルアベレージプーリングの説明
101マックスプーリングのネットワークに誤差を逆伝播する際の処理
102マックスプーリングの特徴
103マックスプーリングと平均値プーリングの説明
104勾配消失問題、勾配爆発問題の説明
105転移学習とファインチューニングの説明
106計算グラフ(簡単な計算問題)
107逆伝播:下流から上流への値
108多クラス分類での、出力層で用いる活性化関数
109CNN:提案された順番
110過学習をしている状態の説明
111訓練誤差
112最小化
113汎化誤差
114DNNが予測を行う際の計算規則の説明:重み
115DNNが予測を行う際の計算規則の説明:バイアス
116DNNが予測を行う際の計算規則の説明:活性化関数
117多層パーセプトロンの説明
118ドロップアウト
119バッチ正規化
120データ拡張
121L2正則化
122RNNに関する説明
123どのベクトルを重要視するか学習させる仕組み
124損失関数
125イテレーション
126エポック
127マルチモーダル
128skip-gramの説明
129CBOWの説明
130U-Netの説明
131デコーダ側の各層から物体検出を行う手法
132強化学習:アクタークリック法
133BERTの説明
134FCNの説明
135SSDの説明
136物体検出を解くモデル
137セグメンテーション、3つのタスク名
138MAMLの説明
139LSTMのゲート数
140PB→EB→ZB→YB
141照応解析の説明
142談話構造解析の説明
143行動価値関数Qの説明
144単語埋め込みモデルの説明
145N-gram
146構文解析の説明
147分散表現と関連性の深いもの
148キャプション生成と関連性の深いもの
149物体検出と関連性の深いもの
150セマンティックセグメンテーションと関連の深いもの
151OCRと関連性の深いもの
152事前学習:映像から物体検出を行う課題
153ニューラルネットワークの多層化に貢献した活性化関数
154GANに関する説明
155WaveNet
156モメンタム法/Nesterov Accelerate Gradient
157CNNの畳み込み:スライド幅の計算
158CNNの計算
159CNNの計算:プーリングの適用回数
160強化学習の収益の説明
161確率的勾配降下法の説明
162ドロップアウトの説明
163Q学習と比較した方策勾配法の特徴について
164制限付きボルツマンマシンの説明
165RNNに期待される利点
166RNNで文章データを扱う際の説明
167RNNにおける教師強制:1時刻前/翻訳
168RNNにおける教師強制(不正解を選ぶ)
169ゲートが存在するRNN
170KLダイバージェンスの特徴
171ReLU関数の説明
172LSTMの説明
173バッチ学習/オンライン学習/ミニバッチ学習
174VGGNetとResNetの相違
175DQN→AlphaGo→AlphaGoZero→AlphaStar
176RNN:再帰構造
177RNN:系列データ
178RNN:情報を一時的に記憶させること
179強化学習で用いられる手法
180LSTMの説明
181LSTMの説明
182CNNの特徴
183インセプションモジュールの説明
184t-SNE:「t」の意味
185強化学習:エージェントの説明
186強化学習の具体例
187行動価値関数の関数近似にCNNを用いた手法
188GoogLeNetの説明
189強化学習で学習することが適した課題
190強化学習の手法の説明
191R-CNNの説明
192方策勾配法の説明
193価値反復法の説明
194誤差逆伝播法の説明
195CNNの画像認識モデルの説明
196一般物体検出 or セグメンテーションへの分類
197アンサンブル学習の説明
198学習率に関する説明
199ImageNetに関する説明
200MNISTに関する説明

G検定のお陰で、自分の仕事に関係ない自然言語処理など、勉強するモチベーションができるので助かってます。もちろん、11月の試験も受けますよ。

 

今回の合格者数と、合格率は?

今回は、受験料が半額だったり、Youtubeなどでも広告を多く打っていたので、受験者数は過去最大になったんじゃないかと思います。(追記:前回は6,298人。今回は1万人以上の方が受験されたようです)

「合格発表」は、2020年7月13日(月)から7月17日(金)の間ということで、この記事の「まとめ」は、合格率が発表された後、私の周りの受験者の方の結果を踏まえてから、書こうと思います。そして「11月の試験予想」についても、妄想してみようと思います。

それでは、またお会いしましょう。