G検定カンペ用語集

自分用G検定用チートシート。


【あ】
アーサー・サミュエル 
赤池情報量規準
アジャイル型
アシロマAI原則
アダブースト
アッカーマン関数
アテンション機構
アノテーション
アラン・チューリング
アルファ碁
アルファ・ゴ・ゼロ
アレン・ニューウェル
アンサンブル学習
暗示的な欠損値
アンダーフィッティング
鞍点
イアン・グッドフェロー
異常検知
一気通貫学習
位置エンコーディング
イテレーション
意味ネットワーク
イライザ
イーロン・マスク
インスタンス正規化
インセプションモジュール
インターネットプラスAI3年行動実施法案
インダストリー4.0
ヴァーナー・ヴィンジ
AI規制枠組み規制案
AI効果
AIと著作権の関係
AIの過失の責任
AI白書
エキスパートシステム
エポック
エムニスト
エラスティックネット
エルマン・ネットワーク
エントロピー
オートエンコーダ
オッカムの剃刀
オフライン強化学習
オープン・イノベーション
重み
オレン・エツィオーニ
音韻
音韻論
音声合成
音声処理
音声認識
オントロジー
オンライン学習


【か】
回帰補完
回帰問題
カウントエンコーディング
過学習(過剰適合)
学習済みパラメータ部分は、著作物か?
学習済みモデル
学習率
確率的潜在的意味解析
隠れ層
隠れマルコフモデル
荷重減衰
画像生成
画像認識
活性化関数
価値関数
カテゴリカル変数
カーネルトリック
カーネル法
含意関係解析
機械学習
機械翻訳
記号接地問題
記述統計
基礎集計
技術的特異点(シンギュラリティ)
強化学習
強化学習のアプローチ
強化学習 モデルベースとモデルフリー
強化学習とロボティクス
強化学習の応用事例
強化学習の技術進歩
教師あり学習
教師データ
教師なし学習
偽陽性(FP)
偽陽性率
協調ベースフィルタリング
局所最適解
クラスタリング
クラス分類
グリッドサーチ
グルーのパラドックス
グループ正規化
クロスバリデーション
群平均法
訓練誤差
訓練データ
形態素解析
K近傍法
k平均法
欠損値
決定木
決定木の不純度
ケラス
言語モデル
交差エントロピー誤差関数
交差検証法
構造化データ
行動価値関数
勾配消失問題
勾配爆発問題
勾配ブースティング
勾配ブースティング回帰木
構文解析
誤差逆伝播法(バックプロパゲーション)
コーセラ
ゴードン・ムーア
コールドスタート問題
コパ(COPA)の知能テスト
コンテンツベースフィルタリング(内容ベースフィルタリング)
混同行列


【さ】
再帰型ニューラルネットワーク
サイキット・ラーン
Cyc(サイク)プロジェクト
再現率・真陽性率
サイパイ
サブサンプリング層
サブセット
サポートベクター回帰
サポートベクターマシン
シーボーン
閾値
シグモイド関数
時系列データ
次元削減
次元の呪い
自己注意機構
自己符号化器
自然言語処理
質的変数
自動運転技術
ジニ不純度
ジェフリー・ヒントン
収穫加速の原則
重回帰分析
主成分分析
順伝播
照応解析
将棋AI
常識推論タスク
状態
状態行動空間の爆発
状態表現学習
情報利得の最大化
蒸留
ジョン・サール
ジョン・マッカーシー
自律型致死性兵器
真陰性(TN)
真陽性
人工知能(AI)
人工知能の4つのレベル
新産業構造ビジョン
深層強化学習
深層強化学習のゲームへの応用
深層信念ネットワーク
身体性
身体知
シンボルグラウンディング問題
推計統計
推論
推論エンジン
スタッキング
スティーブン・ハルナッド
スティーブン・ホーキング
ステップ関数
ストライド
スパースなデータ
スラック変数
正解率
正規化
正則化
説明変数
セマンティックウェブ
ゼロパディング
線形サポートベクターマシン
全結合層
潜在的意味解析
潜在的ディリクレ配分法
層化抽出
相関係数
早期終了
双曲線正接関数
ソフトマージンSVM
孫正義


【た】
ターゲットエンコーディング
ダートマス会議
大域的最適解
対数オッズ
第一次人工知能(AI)ブーム
第五世代コンピュータ
第二次工知能(AI)ブーム
第三次人工知能(AI)ブーム
多クラス交差エントロピー誤差関数
多クラス分類
多層パーセプトロン
畳み込み層
畳み込みニューラルネットワーク
ダニエル・デネット
ダフニー・コラー
ダブルDQN
ダミー変数
Tanh関数(タンエイチ)
単回帰分析
単語誤り率
探索
探索木
単純パーセプトロン
談話解析
チェイナー
チェスAI
逐次学習
知識獲得のボトルネック
知識ベース
知能の全体像
中央処理演算装置
中間層
中国語の部屋
中国製造2025(メイド・イン・チャイナ2025)
チューリングテスト
チューリングマシン
強いAIと弱いAI
データクレンジング
データマイニング
データサイエンス
データリーク
テイ
ディープニューラルネットワーク
ディープフェイク
ディープ・ブルー
ディープマインド
ディープラーニング(深層学習)
ディリクレ分布
停留点
敵対的生成ネットワーク
デコード
テストデータ
デュエリングネットワーク
テンソルフロー
デンドログラム
トイプロブレム(おもちゃの問題)
統計的自然言語処理
統計的機械翻訳
動的計画法
東ロボくん
特異値分解
特徴マップ
特徴量
特徴量エンジニアリング
特化型AI
トピックモデル
トマス・ミコロフ
ドメインランダマイゼーション
トランスフォーマー
ドロップアウト


【な】
ナイーブベイズ
内部表現
内容ベースフィルタリング(コンテンツベースフィルタリング)
中島秀之
名寄せ
ナレッジエンジニア
ナレッジベース
ナンパイ
ニューラル機械翻訳
ニューラルチューリングマシン
ニューラルネットワーク
ニューロン
ネオコグニトロン
ノイジーネットワーク
ノーフリーランチ定理


【は】
ハイテク戦略2025
パイトーチ
ハイパーパラメータ
白色化
派生モデル
パーセプトロン
ハードマージンSVM
バーニーおじさんのルール
ハーバート・サイモン
幅優先探索
バギング
パターンマッチ辞書モデル
バッチ学習
バッチ勾配降下法
バッチ正規化
パディング
ハドゥープ
パトリック・ヘイズ
パノプティックセグメンテーション
パリー
バリデーションデータ
半教師あり学習
汎化誤差
汎化性能
半構造化データ
汎用型AI
非構造化データ
非線形サポートベクターマシン
ビッグデータ
ヒューゴ・デ・ガリス
表現学習
標準化
ヒンジ損失関数
ブースティング
ブートストラップ法
プーリング層
フィルタ
フォワード・プロパゲーション
深さ単位分離可能畳み込み
深さ優先探索
普遍埋め込みモデル
フランク・ローゼンブラット
プラトー
ブルートフォース法
プルーニング
フレーム問題
文脈解析
分類問題
平滑化
平均二乗誤差関数
ベクトル空間モデル
方策
方策勾配法
ホールドアウト法
ボルツマンマシン


【ま】
マービン・ミンスキー
前処理
マルコフ決定過程モデル
マルチエージェント強化学習
マルチエージェントシミュレーション
マルチタスク言語モデル
マルチモーダルAI
未学習
みにくいあひるの子定理
ミニバッチ学習
ミニバッチ勾配降下法
ミニマックス法
ムーアの法則
明示的な欠損値
めかぶ
メル尺度
目的変数
モデルの解釈性
モメンタム
モラベックのパラドックス
モンテカルロ木探索
モンテカルロ法

【や】
ヤン・ルカン
尤度関数



【ら】
ラッセルのパラドックス
ラッソ(L1正則化)
ラベルエンコーディング
ランダムサーチ
ランダムフォレスト
Leaky ReLU関数
リストワイズ法
リッジ回帰
量子化
量的変数
ルールベース
ルールベース機械翻訳
レイ・カーツワイル
レイヤー正規化
レコメンデーションシステム
ReLU関数
ロバスト性
ローブナー・コンテスト
ロジスティック回帰
ロジック・セオリスト
ロボット工学・自律システム成長戦略
ロルフ・ファイファー



【わ】
割引率
ワンホットエンコーディング





【その他】
2020年4月改正の道路交通法と道路運送車両法
2045年問題
EU一般データ保護規則
F値
GPT-n モデル(Generative Pre-Training)
LPプーリング
Q学習
SAEJ3016自動運転レベルの定義
TD学習



【A】
A3C
AAAI
Accuracy
Activation function
Actor-Critic
Adaboost
AdaDelta
AdaGrad
Adam
AI100
Alan Turing
AIC
Allen Newell
AlexNet
AlphaFold
AlphaGo
AlphaGo Zero
Alpha Star
Andrew Ng
Annotation
Anomaly Detection
Arthur Samuel
Artificial Intelligence(AI)
arXiv
Attention
Attribute
AugMix
AugMixup
Autoencoder
Auto ML


【B】
Backpropagation
Batch Normalization
Batch training
BERT
Big Data
Bootstrap method
Boltzmann machine


【C】
CAM(Class Activation Map)
Chainer
Classification
Confusion Matrix
Controller RNN
CNTK
Convolutional Neural Network(CNN)
Coursera
Count Encoding
CPU(Central Processing Unit)
CrRv(Category relevance Rarity value)
CTC(Connectionist Temporal Classification)
CUDA
Curse of dimensionality
CutMix
Cutout
Cyc
CycleGAN



【D】
Daniel Dennett
Daphne Koller
Dartmouth Conference
Data mining
Data Science
DBSCAN
DCGAN (Deep Convolutional GAN)
Decision tree
Deep belief network
Deep Blue
DEEP CNN
DeepDream
DeepFake
Deep Learning
DeepMind
Deep Neural Network(DNN)
Dendrogram
Depthwise Separable Convolution
Dilation Convolution
Discount Rate
Double Deep Q Network
Dropout
Dueling Network




【E】
early stopping
Efficitent NAS(ENAS)
EfficientNet
Ethically Aligned Design(EAD)
ELIZA
elman network
elmo
Embodiment
End to End Learning
Ensemble Learning
Expert system
Explanatory variable



【F】
False Positive(FP)
Faster R-CNN
Feature
Feature Engineering
Feature map
F-measure
Forward Propagation
Frame problem
Frank Rosenblatt


【G】
Genera tive Adversarial Networks;GAN
Geoffrey Hinton
GDPR
Gini impurity
Global Average Pooling
GLUE
GoogLeNet
Google Scholar
Gordon Moore
GPT-3
GPT-n model(Generative Pre-Training)
GPU(Graphics Processing Unit)
Grad-CAM
Grad-CAM++
Gradient Boosting
group average method
Group normalization
Guided Backpropagation
Guided Grad-CAM



【H】
Hadoop
Herbert Simon
HMM(Hidden Markov Model)
Hyperbolic tangent function


【I】
IAAA
Ian Goodfellow
IEEE
ILSVRC(ImageNet Large Scale Visual Recognition Challenge)
Image Generation
ImageNet
Image Recognition
Inference
Instance Normalization
iteration



【J】
John McCarthy
John Searle
JUMAN



【K】
Kaggle(カグル)
Kaiming He
Keras
k-means
K-Nearest Neighbor
Knowledge Base
Kuromoji




【L】
Latent Dirichlet Allocation:LDA
Latent Semantic Analysis:LSA
Layer Normalization
LAWS(Lethal Autonomous Weapons Systems)
LeNet
LightGBM
LIME(Local Interpretable Model-agnostic Explainations)
Loebner Contest
Logic Theorist
Logistic regression
LP pooling
LSI(Latent Semantic Indexing)



【M】
Machine Learning
machine translation(MT)
Marvin Minsky
MeCab
Mini-Batch Stochastic Gradient Descent
Mini-batch training
minimax
Mixup
MnasNet
MNIST
MobileNet
Monte Carlo tree search
Morphological Analysis
multi-agent reinforcement learning:MARL
Multi-Agent Simulation(MAS)
Multilayer perceptron
Multimodal Artificial Intelligence



【N】
Naive Bayes
NAS(Neural Architecture Search)
NASNet
Natural Language Processing(NLP)
Neocognitron
Neural network
Neural Turing Machine(NTM)
NMT:Neural Machine Translation
noisy network
Normalization
Numpy


【O】
Occam's razor
OCR
Okapi BM25
one-hot-encoding
Online Learning
Ontology
OpenAI
OpenAI Five
OpenAI Gym
Open innovation
OpenPose
Oren Etzioni
Over-Training/Over-Fitting



【P】
Panoptic Segmentation
PARRY
Partnership on AI
Patrick Hayes
方策勾配法
Policy Gradient Method
Ponanza
Probabilistic Latent Semantic Analysis:PLSA
Pruning
PyTorch


【R】
RAINBOW
Random Erasing
Random forest
RAS 2020
Ray Kurzweil
Recall
Rectified Linear Unit
RegNet
Regression
Regularization
Reinforcement Learning(RL)
ResNet(Residual Network)
Response variable
RFC439
RMSprop
RMT:Rules Based Machine Translation
RNN(Recurrent Neural Network)



【S】
SAC(Soft Actor-Critic)
SAEJ3016自動運転レベルの定義
SARSA
scikit-learn
SciPy
score-CAM
Seaborn
Search
SegNet
Self-Attention
Semantic Network
Semantic Web
Semi-Supervised Learning
Seq2Seq(sequence-to-sequence)
SHAP(SHapley Additive exPlanations)
SHRDLU
Sigmoid function
SIGNATE
Sim2Real(Simulation To-Real)
singularity
Simple perceptron
SMT:Statistical Base Machine Translation
Source-Target attention
Speech processing
state representation learning
Stationary point
Step function Stephen Hawking
Stevan Harnad
STRIPS
strong AI and weak AI
Supervised learning
SWITCHBOARD
Symbol grounding problem


【T】
Tacotron2
Target encording
Target Mean Encoding
Tay
teaching data
Tensorflow
Tomáš Mikolov
Toy problem
training data
True Negative(TN)
True Positive
Truncated BPTT
tーSNE
Turing machine
Turing Test



【U】
Ugly Duckling theorem
UI
Uncle Bernie's Rule
underfitting
U-Net
Universal Embedding
Unsupervised Learning


【V】
Vernor Vinge
VGG
Vision Transformer


【W】
WACV
WaveRNN
WaveGlow
WaveNet
Weight decay
WER
WSDM(Web Search and Data Mining)


【X】
XGBoost


【Y】
Yann LeCun
YOLO







もっとも有名なReLU関数の派生版。
入力値が負の領域でもわずかな傾きを持っているため、全領域で微分がゼロになることがない。

↑このページのトップヘ