勉強法

2020年 11月7日「G検定」191問 振り返り

G検定 20年11月試験

昨日11月7日に、第9回目の「G検定」が行われました。その「191問」をリスト化しました。※下の方にあります

G検定を運営している日本ディープラーニング協会(JDLA)の岡田事務局長が、「合格ライン・合格率」について話していた事があり、その中で『絶対評価か?相対評価か?は明かしていない。両方の視点と考えてほしい。これは知っておいてほしいという問題はある』と発言していました。

今まで何度も受験してきて、そして、周りの受験者の結果と勉強内容をまとめてきての予想ですが、「JDLAが重要視している問題」は、『公式テキスト』の中で扱われている内容で、その問題に正解していれば、合格としているのかもしれません。

今回新しく出た問題の一部に、以下があります。
・ガウシアン/ラプラシアンピラミッド
・HOG特徴量
・コサイン類似度
・SMOTE
・ポアソン回帰
・ベルマン方程式
・データリーケージ
・カルマンフィルター
・ROIプーリング

これらの問題は、現時点で最新の「対策本」である、この2冊でも扱われていません。
要点整理から攻略する『ディープラーニング G検定 ジェネラリスト』
最短突破 ディープラーニングG検定(ジェネラリスト) 問題集

2020年新刊2冊

このような問題に正解できなくても、不合格にはならないと思いますので安心して下さい。

 

全191問 問題リスト

下のリストについて、簡単に説明します。

■「不正解を選ぶ」・・・『正しくない~/不適切な選択肢を選べ』という問題に、【✔=チェック】を付けています。

■「対策」・・・以下の「3冊」に加えて、本の中に出ているキーワードを掘り下げて調べたり、AIの最新情報を収集するなどの対策が必要だと感じた問題を、【 ⚠=注意 】としました。

『G検定 公式テキスト』
『徹底攻略 ディープラーニングG検定 問題集』
『これ1冊で最短合格 ディープラーニングG検定 要点整理テキスト問題集』

お薦め3冊

⚠・・・・・・・・・62問
不正解を選ぶ・・・・25問

 

番号 問題 対策
不正解を選ぶ
1 相関係数の説明
2 XAIへの投資プログラムでの試み
3 LSI
4 蒸留
5 音声データの処理の説明
6 EfficientNetの説明
7 XAIの説明
8 ガウシアン/ラプラシアンピラミッド
9 協調フィルタリング
10 ランダムフォレスト・決定木
11 双方向リカレントニューラルネットワーク
12 物体検出の説明
13 深層強化学習の説明
14 相関係数と偏差の説明
15 スラック変数の説明
16 構文解析の説明
17 OCRの説明
18 計算グラフの「値」
19 HOG特徴量を用いた画像認識の説明
20 DQN
21 音声認識エンジン
22 自動運転レベル3
23 バイアス・バリアンス・ノイズ
24 AlexNet
25 XAIの説明
26 混同行列
27 CNNを用いた画像認識モデルの説明
28 強化学習に適した課題を選ぶ
29 コサイン類似度の性質の説明
30 誤差逆伝播法の説明
31 アンサンブル学習の説明
32 Partnership on AI、倫理的に調和した設計、人間中心のAI社会原則
33 意味ネットワーク
34 発明者に関する説明
35 汎化性能
36 ハイパーパラメータに該当する要素
37 信頼性を備えたAI~、倫理的に~、Partnership on AI
38 ドロップアウト
39 談話構造解析
40 TF-IDF
41 ディープ・フェイク
42 勾配消失問題の説明
43 ミニバッチ学習
44 MAMLの説明
45 RNNにおける教師強制の説明
46 DNNの説明
47 セマンティック・ウェブ
48 RNNの利点
49 DNNの説明
50 セマンティックセグメンテーションの説明
51 作動状態記録装置
52 個人情報保護法の説明
53 照応解析の説明
54 RNN Encoder-Decoderの中間層の説明
55 第3次AIブームの説明
56 BoWの説明
57 強化学習を導入するメリット
58 ディープブルーの性能
59 GPUを用い並列でネットワーク構造を探索できる手法
60 深層強化学習の「問題と報酬」の説明
61 ディープブルーの探索手法の課題
62 XAIに関するワークショップ
63 強化学習の手法の説明
64 自然言語処理の手法
65 グローバルアベレージプーリングの説明
66 SMOTEの説明
67 営業秘密の説明
68 CIFARの説明
69 事前学習の説明
70 データの分布を近似する生成モデル
71 多クラス分類の出力層での活性化関数
72 営業秘密の説明
73 行動価値関数Qの説明
74 KAIST問題の説明
75 多層パーセプトロンの説明
76 XAIの説明
77 LSTMの計算コストの削減を実現した手法
78 強化学習のactor-critic法の説明
79 NNの学習の目的
80 多クラスの物体認識データセットでの正解ラベルの扱い
81 LeNet → AlexNet → GoogLeNet → ResNet
82 arXiv、GitHub
83 匿名加工情報
84 ポアソン回帰
85 混同行列の説明
86 過学習をしている状態
87 行動価値関数に関するベルマン方程式
88 スキップグラムの説明
89 エキスパートシステム
90 パディング
91 RNNと自己回帰モデルの違い
92 状態空間モデルの説明
93 一般物体検知とセグメンテーション:アルゴリズム分類
94 Early Stoppingの説明
95 GANの説明
96 欧州委員会の「AIに関する倫理ガイドライン」
97 顔認識技術の動向
98 確率的勾配降下法の説明
99 AI社会実装で生じる倫理・法・社会的な課題への対処
100 バッチ正規化の説明
101 L2正則化
102 自然言語処理
103 ImageNetの説明
104 ランダムフォレストの利点
105 シンボルグラウンディング問題
106 AI共同開発において留意すべきこと
107 個人情報保護法の説明
108 複数の決定木の実測値と予測値の誤差を最小にする手法
109 データ拡張の説明
110 決定木を分類問題に適用する際の基準
111 U-Netが用いられるタスク
112 正則化項を加えモデルを学習させた際の評価値の変化
113 音声認識におけるメル尺度の考えが重要な理由
114 RPAの説明
115 U-Netの構造
116 Cycプロジェクト
117 統計的な音声合成手法の一つ
118 ResNet
119 特徴点抽出の手法
120 用語と説明の組み合わせ
121 個人情報保護法に関して
122 学習率の説明
123 収集生成データや学習済みモデルの知的財産の保護
124 GoogLeNetの説明
125 転移学習とファインチューニングの説明
126 個人情報保護法の説明
127 単語埋め込みモデル
128 統計的自然言語処理
129 イテレーション
130 アンサンブル学習
131 個人情報保護法の説明
132 ディープラーニング盛り上がりの理由
133 GDPRの説明
134 ベイズ推定の説明
135 MNISTの説明
136 k-means法
137 A3C
138 データ拡張
139 発明に関する説明
140 多クラス分類で用いる関数
141 adversarial example
142 バッチ学習、オンライン学習、ミニバッチ学習
143 営業秘密と限定提供データの説明
144 単純パーセプトロン
145 RNNの問題点
146 検証データにデータリーケージがあった場合の影響
147 マックスプーリングの説明
148 カルマンフィルターが用いられている技術
149 異なる音声データを比較する際の手法
150 ドロップアウトの説明
151 define-by-runとdefine-and-runの説明
152 NNの多層化に貢献した活性化関数
153 モーメンタムの考え方を適用した手法
154 キャプション生成の説明
155 自己回帰モデル(ARモデル)による分析対象例
156 OpenAI
157 XAIの説明
158 次元圧縮や高次元データ可視化のアルゴリズム
159 マルチモーダル
160 t-SNEの「t」の説明
161 個人情報取扱事業者の義務
162 ポアソン回帰と重みを最小二乗法で解く線形回帰の相違
163 Q値を用いる強化学習
164 DNNの説明
165 第1次AIブームの説明
166 ネオコグニトロン
167 PB→EB→ZB→YB
168 強化学習で用いられる手法
169 統計量の説明
170 ROIプーリングの説明
171 単純パーセプトロンの説明
172 機械学習におけるデータ集合の説明
173 TPU
174 サイコロの出る目の確率:xの期待値
175 MFCCの説明
176 ハイパーパラメータの説明
177 WaveNet
178 Adversarial Examples
179 ネットワークの動作に温度の概念を取入れたモデル
180 注意機構
181 DQN→AlphaGo→AlphaGoZero→AlphaStar
182 U-Netの説明
183 エポック
184 CNNの計算問題
185 モラベックのパラドックス
186 ディープフェイクの説明
187 ファインチューニング
188 交差検証法の役割と意義
189 転移学習の例
190 ドロップアウトの説明
191 情報量についての説明

JDALによると、今回の「合否結果」は、2020年11月16日(月)~11月20日(金)の間にメールで届くそうです。

毎回の合格ラインは、理事長の松尾豊先生が決めているそうなので、合否発表が早いか遅いかは、松尾先生のスケジュール次第です。

パソコンでの試験で、なおかつ、「AI」を冠した試験なのに『待たせすぎ!なんでこんなに時間がかかるんだ』という気持ちになると思いますが、我慢するしかありません。

皆さんに良い結果が訪れることをお祈りしております。

 

来年は、G検定とその周辺に大きな変化があるかも?

過去8回と比較して、今回の試験で気になったのが、

・問題の順番の「不規則さ」が強くなった
・問題の文章は違うが、内容が同じ問題があった
の2点です。

JDLAの岡田事務局長が『今年中は厳しいかと思うのですが、来年を目安にいつでも受験できる形式にして、アップデートを日々行っていきたいと考えています』と話していました。

いつでも受験できる形式にするには「多くの問題」を用意する必要がありますが、G検定で求めている範囲には限りがあるので、用意できる問題の数にも限界がでてきます。

それならば、「出題の順番を毎回変える」「穴埋めの穴の場所を毎回変える」ぐらいは導入しそうです。今回、このような仕組みを導入しているかは分かりませんが、今後のG検定の方向性が垣間見れて楽しかったです。

次のG検定は「5ヶ月後」となりました。

JDLAの岡田事務局長の話では、最新情報を盛り込んだ『公式テキスト』の発売や、「G検定の英語化」が計画されているそうなので、それについても詳細が明らかになれば、こちらで取り上げていこうと思います。