※1問目から214問目まで「リスト」にしました。下の方にあります。
昨日(3月14日)の「G検定試験」を振り返ります。
この記事は、合格発表後に出す予定でしたが、
みなさんが問題を覚えているうちに出した方がいいかなと思い、速報版としてアップします。復習などにお役立てください。
全214問 問題リスト
下のリストについて説明します。
■「問題」・・・・問題そのものを書いてしまうと「禁止行為」になってしまうので、問題のカテゴリーのようなものを書いています。
■「対策」・・・・『公式テキスト』と『徹底攻略 ディープラーニングG検定』だけでなく、さらに理解を深める必要がある、普段から最新情報を収集しておく必要がある問題などは【 d = deep 】としました。
■「間違いを選ぶ」・・・・『正しくない~/不適切な~/関連のない~/指していない~/含まれない~選択肢を選べ』という問題に、チェックマークを付けています。
番号 | 問題 | 対策 | 間違いを選ぶ |
1 | AIの歴史 | ||
2 | AIの歴史 | ||
3 | AIの歴史 | ||
4 | AlexNet | ||
5 | ResNet | ||
6 | AIの歴史 | ||
7 | AIの歴史 | ||
8 | 自然言語処理・セマンティックウェブ | ||
9 | 自然言語処理・セマンティックウェブ | ||
10 | DNNのブームの理由 | ✔ | |
11 | ゲームで人間に勝てるAIを作る研究 | ||
12 | ゲームで人間に勝てるAIを作る研究 | ||
13 | チューリングテスト | ||
14 | ELIZA | ||
15 | モラベックのパラドックス | ||
16 | ディープラーニングの特徴量 | ||
17 | 自己符号化器 | ||
18 | 意味ネットワーク | ||
19 | Cycプロジェクト | ||
20 | シンボルグラウンディング問題 | ||
21 | フレーム問題 | ||
22 | ディープラーニングによって発展したもの | ✔ | |
23 | 知識獲得のボトルネック | ||
24 | 自動運転のレベル別の説明 | ||
25 | 自動運転のレベル別の説明 | ||
26 | 道路交通法の改正 | ||
27 | 道路交通法の改正後、レベル3以上で条件付きで認可 | ||
28 | Kaggle | ||
29 | arXiv | ||
30 | Google Scholar | ||
31 | coursera | ||
32 | データ管理の仕組み | ||
33 | データ管理の仕組み | ||
34 | AIが生成した創作物 | ||
35 | AI自身のリスク | ||
36 | 人間がAIを利用して引き起こすリスク | ||
37 | 法律・社会のあり方のリスク | ||
38 | AAAI | d | |
39 | ドローンの飛行規制 | ||
40 | 説明可能な人工知能 | ||
41 | 説明可能な人工知能 | ||
42 | ブラックボックス化 | ||
43 | モデルの記述可能性、複雑性を表現する概念 | d | |
44 | Adversarial Examples | ||
45 | 学習済みモデルの知的財産保護 | ||
46 | 個人情報保護法 | ✔ | |
47 | Tayの事例 | ||
48 | 不正競争防止法 | ||
49 | DARPA | ||
50 | 説明可能なAIへの投資プログラム | ||
51 | AIの共同開発 | ✔ | |
52 | 法的倫理的課題に対処する団体、ガイドライン | ||
53 | EU一般データ保護規制 | d | |
54 | 第三者の著作物の学習データ化 | ||
55 | AIの倫理的・法的・社会的な課題 | ✔ | |
56 | 自動運転 | ||
57 | 自動運転 | ||
58 | 自動運転 | ||
59 | ディープフェイク | ✔ | |
60 | 匿名加工情報 | d | |
61 | 個人情報保護法 | d | |
62 | 個人情報保護法 | d | |
63 | 個人情報保護法 | d | |
64 | 協調フィルタリング | ||
65 | 内容ベースフィルタリング | ||
66 | 計算問題(クラス分類) | ||
67 | サポートベクターマシン | ||
68 | サポートベクターマシン | ||
69 | サポートベクターマシン | ||
70 | LSI | ||
71 | LDA | ||
72 | 単純パーセプトロン | ||
73 | 活性化関数 | ||
74 | ベイズの定理 | d | |
75 | 自然言語処理のフロー | ||
76 | 自然言語処理のフロー | ||
77 | 自然言語処理のフロー | ||
78 | 自然言語処理のフロー | ||
79 | 自然言語処理のフロー | ||
80 | 情報量 | ||
81 | 最適化手法 | ✔ | |
82 | ロジスティクス回帰 | ||
83 | 回帰問題 | ||
84 | 機械学習の各フェーズ | ||
85 | 教師あり学習 | ||
86 | 混同行列 | ||
87 | 過学習 | ||
88 | 単回帰分析の説明 | d | |
89 | クラスタリングの特徴 | ✔ | |
90 | 重回帰分析 | ||
91 | グリッドサーチ | ||
92 | 次元削減 | d | |
93 | 優れたモデルの検証 | d | |
94 | 条件分岐を適切な回数に留める手法 | ||
95 | アンサンブル学習 | ||
96 | バギング | ||
97 | ブースティング | ||
98 | k-最近傍法 | ||
99 | クラスタリング | ||
100 | k-平均法 | ||
101 | 決定木 | ||
102 | 決定木 | ||
103 | k-平均法 | ||
104 | 主成分分析 | ||
105 | 交差検証 | ||
106 | k-分割交差検証 | ||
107 | 計算問題(偏微分) | ||
108 | 計算問題(斜辺の長さ) | ||
109 | 過学習の図 | ||
110 | ボルツマンマシン | ||
111 | DNNの説明:重み・バイアス・活性化関数 | ||
112 | DNNの説明:重み・バイアス・活性化関数 | ||
113 | DNNの説明:重み・バイアス・活性化関数 | ||
114 | ハイパラメータ | ||
115 | ハイパラメータ | ||
116 | 訓練誤差・汎化誤差 | ||
117 | 訓練誤差・汎化誤差 | ||
118 | 訓練誤差・汎化誤差 | ||
119 | 確率的勾配降下法 | ||
120 | オンライン学習 | ||
121 | ミニバッチ学習 | ||
122 | バッチ学習 | ||
123 | PyTorch | ||
124 | TensorFlow | ||
125 | Caffe | ||
126 | 多層パーセプトロン | ||
127 | 過学習対策:ドロップアウト | ||
128 | 過学習対策:バッチ正規化 | ||
129 | 過学習対策:データ拡張 | ||
130 | 過学習対策:L2正則化 | ||
131 | 自己符号化器 | ||
132 | データの分布を近似する生成モデル | ||
133 | GANの説明 | ||
134 | プーリング層の説明 | ||
135 | RNNの説明 | ||
136 | 自然言語処理の「注意機構」 | ||
137 | GAN | ||
138 | 変分自己符号化器 | d | |
139 | DQNの特徴 | ✔ | |
140 | 深層強化学習 | ||
141 | 損失関数 | ||
142 | イテレーション | ||
143 | エポック | ||
144 | DQN→AlphaGo→AlphaGoZero→AlphaStar | ||
145 | RNNの説明:再帰構造 | ||
146 | RNNの説明:系列データ | ||
147 | RNNの説明:情報を一時的に記憶させる | ||
148 | 強化学習で用いられる手法 | ✔ | |
149 | ステップ関数 | ||
150 | シグモイド関数 | ||
151 | ReLU関数 | ||
152 | ソフトマックス関数 | ||
153 | LSTMの説明 | ||
154 | LSTMの説明 | ||
155 | CNNの構造 | ||
156 | インセプションモジュールの構造 | ||
157 | GANの説明 | ||
158 | GANの説明 | ||
159 | Transformer | ||
160 | t-SNE | ||
161 | 強化学習のエージェント | ||
162 | 強化学習の具体例 | ||
163 | 強化学習の説明 | ✔ | |
164 | 深層強化学習の説明 | ||
165 | DQN | ||
166 | 状態価値を学習する手法 | ||
167 | CNNの畳込み演算の計算 | ||
168 | 隠れマルコフモデル | ||
169 | WaveNet | ||
170 | イアン=グッドフェロー | ||
171 | 学習率 | ✔ | |
172 | GoogLeNetの説明 | ||
173 | 自然言語処理モデル | d | |
174 | 強化学習の適した課題 | ||
175 | 強化学習の説明 | ||
176 | R-CNNの説明 | d | ✔ |
177 | 方策勾配法の説明 | d | |
178 | 価値反復法の説明 | d | |
179 | 誤差逆伝播法の説明 | ||
180 | CNNの説明 | ✔ | |
181 | 一般物体検知・セグメンテーション | ||
182 | ImageNetの説明 | ||
183 | CIFARの説明 | d | |
184 | MNISTの説明 | ||
185 | アンサンブル学習 | ||
186 | VGG16 | ||
187 | LSTMのゲート数 | ||
188 | 画像処理に関連する技術 | ||
189 | PB→EB→ZB→YB | ||
190 | 強化学習の動向 | ||
191 | 深層強化学習 | ||
192 | マルチモーダル | ||
193 | 一気通貫学習 | ||
194 | キャプション生成 | ||
195 | 照応解析 | ||
196 | 談話構造解析 | ||
197 | 様々な分野でのディープラーニング | ||
198 | Word2Vecの説明:skip-gram | ||
199 | Word2Vecの説明:CBOW | ||
200 | 言語処理技術:BERT | ||
201 | 言語処理技術:BERT | ||
202 | 行動価値関数Qの説明 | d | |
203 | 単語埋め込みモデルの説明 | ||
204 | RNNのモデルではないもの | ||
205 | 単語や文章の表現を得られないモデル | ||
206 | 単語埋め込みモデルでないもの | ||
207 | n-gram | ||
208 | 構文解析の説明 | ||
209 | 分散表現の説明 | ||
210 | 物体検出の説明 | ||
211 | セマンティックセグメンテーションの説明 | ||
212 | OCRの説明 | ||
213 | 事前学習の手法 | ||
214 | 転移学習 | d | ✔ |
難易度を変えようとする考えは「ない」
2020年1月に掲載された「日本ディープラーニング協会事務局長へのインタビュー」の中で、『今後 試験難易度が大きく変わっていくといった可能性はありますか?』という質問に対して、事務局長はこう答えています。
こちらで難易度を変更しようとするような話は一切ございません。
一方でGもEも年度ごとに出題すべき問題が変わるので、結果として難易度が変わる可能性はあります。
これについてもう少し掘ってお話すると、GもEもなんですが、それぞれ試験合格者にお渡しするロゴがあり、合格した年の年号が入っています。
G検定などで学ぶ内容って日々アップデートされるものなので、毎回問題が変わってくるのです。例えば昨年2019年に行った試験では2018年に出てきたBERTやELMoのような「新しい技術で知っておくべきもの」が出題されました。
当然2017年で受験された方はこうした問題には触れてこなかったわけです。
このように試験問題が更新されていくことで、難易度にもある程度影響は出ていると思います。(中略)
また、こうした最新技術に関する知識は日々アップデートしていかなければならないので、GやEは「いつ取ったのか」という点も大切になってくる資格でもあります。
『資格Times』より
最新技術に関する知識は日々アップデートしていかなければならないと、ハッキリ言ってますね。
『G検定 公式テキスト』とは別に、事務局が注目して欲しいと思っている「最新技術・法令など」をコンパクトにまとめた安い本が出てくれると受験者の方は助かるんでしょうね。
『AI白書』は、高額で大ボリュームすぎるので、多くの方にとっては負担が大きすぎますから。
それでは、またお会いしましょう。