MachineLearning
をテンプレートにして作成
LECTURE
担当科目一覧
コンピュータ概論/2024
データサイエンス/2024
3DCG演習/2024
情報デザイン研究/2024
卒業研究/2024
KEYWORDS
WEB DESIGN
SOCIAL DESIGN
SQUARES
LINKS
九州産業大学
芸術学部
芸術研究科
九産大美術館
九産大図書館
年間スケジュール
動画ニュース他
交通情報
気象・環境情報
危機に備えて
K'sLife
Office365Mail
Tools
SEARCH
開始行:
*機械学習
Machine Learning
~
機械学習(Machine Learning:ML) とは、データサイエンス、...
生成系AI(Generative AI)に利用されている Transformer も...
-Discriminative AI:認識系AI / 識別系AI(文字・音声・画像...
-Generative AI:生成系 AI(文章生成・楽曲生成・画像生成)
機械学習においてコンピュータに与えるのは、学習ルールと、...
このときコンピュータの中に自動的に出来上がる「入力と出力...
従来、物事の判別は人手によるプログラミング( if 条件文)...
機械学習で可能になるのは大きく3つ、「予測」「発見」「生...
-予測:過去のデータから未知のデータに対する予測を行う(教...
-発見:過去のデータから未知のパターンを発見する(教師なし)
-生成:過去のデータと条件入力から「それらしい」パターンを...
//モデルの生成には、以下のような手法があり、どの手法を用...
~
***CONTENTS
#contents2_1
~
**はじめに
***機械学習の位置づけ
「機械学習」の周辺には、データサイエンス、データマイニン...
機械学習と[[データマイニング>DataMining]]の関係ですが、機...
両者の目的の違いから言うと、機械学習の主目的(昨今の話題...
~
***機械学習のイメージ
従来のAI(エキスパートシステム)と何が違うのか、そのイメ...
#image(ML.jpg)
~
***機械学習の応用先
-予測:数値予測、ニーズ・意図予測、マッチングなど
-識別:情報の判断・仕分け・検索、音声・画像の認識、異常検...
-実行:作業の自動化、表現生成、行動の最適化など
~
~
**機械学習のタイプ
機械学習には、大きく4つのタイプがあります。
~
***教師あり学習|Supervised learning
教師あり学習とは、学習のときに正解のラベルを使う手法で、'...
今最も実用化が進んでいるのがこの分野です。要するに、大量...
~
***教師なし学習|Unsupervised Learning
教師なし学習とは、学習のときに正解のラベルを使わずに、機...
~
***半教師あり学習|Semi-supervised learning
半教師あり学習とは、学習の際に少量の正解ラベルつきデータ...
~
***強化学習|Reinforcement learning
強化学習とは、正解ラベルの代わりに「報酬」を使う手法です...
~
~
**教師あり学習の手法
大きく2種類、主にカテゴリを予測する「分類(クラス分類)...
~
***分類
分類(クラス分類)とは、あるサンプルが与えられたときに、...
-''ロジスティック回帰'' > 詳細:[[LogisticRegression]]
&small(注)「回帰」という文字を使いますが、「分類」の手法...
-''サポートベクターマシン'' > 詳細:[[SupportVectorMac...
-''決定木'' > 詳細:[[DecisionTree]]
-''ランダムフォレスト'' > 詳細:[[RandomForest]]
-''ニューラルネットワーク'' > 詳細:[[NeuralNetwork]]
&small(ディープラーニングはこの技術の応用(中間層を増やし...
~
***回帰
回帰とは、あるサンプルが与えられたときに、そのサンプルに...
-''線形回帰'' > 詳細:[[LinearRegression]]
-非線形回帰
-以下、回帰の手法としても用いられます
--サポートベクターマシン
--ランダムフォレスト
--ニューラルネットワーク
~
~
**教師なし学習の手法
***クラスタリング
クラスタリングはサンプルを自動的にグループ分けする手法で...
クラスタリングでは「いくつに分けるか」という「分類数」の...
-''k-means'' > 詳細:__[[k-means]]__
~
***次元削減(次元圧縮)
次元削減とは文字通り「データの次元数を減らす」ことですが...
一般に、説明変数(特徴量)が多いと、対象を捉えて識別する...
-''主成分分析(PCA)'' > 詳細:__[[Statistics/PCA]]__
-ニューラルネットワーク(オートエンコーダー系)
~
~
**用語解説
***説明変数と目的変数
関数モデルを '''y = f(X) ''' と書いた場合の、X が説明変数...
-説明変数:explanatory variable
物事の原因となる変数。一般に X を使います。文献によってい...
--特徴量 feature / attribute
--予測変数 predictor variable
--独立変数 independent variable
-目的変数:target variable
物事の結果(予測)となる変数。一般に y を使います。文献に...
--ラベル label
--応答変数 response variable
--従属変数 dependent variable
-付記:X vs Y の組み合わせは、以下のパターンが多いようで...
--説明変数 vs 目的変数
--特徴量 vs ラベル
--予測変数 vs 応答変数
--独立変数 vs 従属変数
~
***学習用データとテストデータ
機械学習(教師あり)では、手持ちのデータを「学習用データ...
手持ちのデータを全て学習用データとして使うと、そのデー...
データの分割には、以下のような方法があります。
-Hold-out:全体を一定の比率(例えば7:3)で分割
-Cross Validation:全体をn個に分割して、n-1個を学習用、1...
-Leave One Out:上記の特殊版。1個だけテストデータとして...
~
***目的関数と損失関数
教師あり学習では、入力 x に対して成分 w を用いて目的関数 ...
目的関数の最適化問題を解くことは、すなわち、損失関数(...
例えば回帰問題では、一般に以下のような「二乗損失」を用...
-目的関数:'''y = f ( w, x )'''
-損失関数:'''L ( y , f ( w, x ) ) = ΣSUB{i}; ( ySUB{i}; ...
''参考'':損失関数、評価関数、誤差関数、コスト関数、目的...
https://zenn.dev/nekoallergy/articles/machinelearning-func
~
***活性化関数
ニューラルネットワークにおいて線形変換(重み付き入力の総...
-中間層で用いる活性化関数
--''ステップ関数(形式ニューロン)''
結果が閾値θよりも大きいか否かで、出力が単純に0または1の...
''' f( x ) = 0(x≦θ), 1(x>θ)'''
--''線形結合(単純パーセプトロン)''
結果の値にバイアスを加えただけです。出力は線形連続になり...
''' f( x ) = ax + b'''
--''シグモイド関数''
入力した値が大きければ大きいほど1に近づき、小さければ小さ...
'''f( x ) = 1 / ( 1 + exp(-x) )'''
--''tanh関数''
出力が−1から1なので出力がゼロになることでシグモイド関数...
'''f( x ) = ( exp(x) - exp(-x) ) / ( exp(x) + exp(-x) )'''
--''ReLU(ランプ関数)''
入力が 0以下のときは 0、1より大きいときは入力をそのまま出...
''' f( x ) = 0(x<θ), x(x≧θ)''' あるいは '''f( x ) ...
-出力層で用いる活性化関数
--''ソフトマックス関数''
各出力 f( xSUB{i}; ) の値をすべての '''i''' について合計...
''' f( xSUB{i}; ) = exp(xSUB{i};) / ΣSUB{j}; exp(xSUB{j};...
--''恒等関数''
最もシンプル、入力値をそのまま出力するものです。
'''f( x ) = x '''
~
***最適化アルゴリズム(オプティマイザ)
ニューラルネットの文脈では、最適化とは「出力の誤差が最小...
-[[SGD>Google:最適化 SGD]]:Stochastic Gradient Descent ...
-[[Momentum>Google:最適化 SGD]]
-[[Nesterov Accelerated Gradient>Google:最適化 Nesterov A...
-[[Adaptive Learning Rate>Google:最適化 Adaptive Learning...
Momentum法と異なり、学習率を自動調整することを目指したの...
Adagrad, RMSProp, Adadelta, Adam, Adamax, Eve,
-[[YellowFin>Google:最適化 YellowFin]]
~
~
**APPENDIX
***関連ページ
-[[DataScience]]
-[[ArtificialIntelligence]]
-[[ArtificialIntelligence/Links]]
-[[Data]]
-[[Statistics]]
-[[DataVisualization]]
-[[MachineLearning]]
--[[DecisionTree]]
--[[k-means]]
--[[LinearRegression]]
--[[LogisticRegression]]
--[[MultipleCorrespondenceAnalysis>Statistics/MCA]]
--[[NeuralNetwork]]
--[[PrincipalComponentAnalysis>Statistics/PCA]]
--[[RandomForest]]
--[[SupportVectorMachine]]
-[[DataMining]]
-[[Python]]
--[[Pandas]]
--[[scikit-learn]]
-[[GoogleColaboratory]]
-[[Orange]]
-[[OpenData]]
~
~
終了行:
*機械学習
Machine Learning
~
機械学習(Machine Learning:ML) とは、データサイエンス、...
生成系AI(Generative AI)に利用されている Transformer も...
-Discriminative AI:認識系AI / 識別系AI(文字・音声・画像...
-Generative AI:生成系 AI(文章生成・楽曲生成・画像生成)
機械学習においてコンピュータに与えるのは、学習ルールと、...
このときコンピュータの中に自動的に出来上がる「入力と出力...
従来、物事の判別は人手によるプログラミング( if 条件文)...
機械学習で可能になるのは大きく3つ、「予測」「発見」「生...
-予測:過去のデータから未知のデータに対する予測を行う(教...
-発見:過去のデータから未知のパターンを発見する(教師なし)
-生成:過去のデータと条件入力から「それらしい」パターンを...
//モデルの生成には、以下のような手法があり、どの手法を用...
~
***CONTENTS
#contents2_1
~
**はじめに
***機械学習の位置づけ
「機械学習」の周辺には、データサイエンス、データマイニン...
機械学習と[[データマイニング>DataMining]]の関係ですが、機...
両者の目的の違いから言うと、機械学習の主目的(昨今の話題...
~
***機械学習のイメージ
従来のAI(エキスパートシステム)と何が違うのか、そのイメ...
#image(ML.jpg)
~
***機械学習の応用先
-予測:数値予測、ニーズ・意図予測、マッチングなど
-識別:情報の判断・仕分け・検索、音声・画像の認識、異常検...
-実行:作業の自動化、表現生成、行動の最適化など
~
~
**機械学習のタイプ
機械学習には、大きく4つのタイプがあります。
~
***教師あり学習|Supervised learning
教師あり学習とは、学習のときに正解のラベルを使う手法で、'...
今最も実用化が進んでいるのがこの分野です。要するに、大量...
~
***教師なし学習|Unsupervised Learning
教師なし学習とは、学習のときに正解のラベルを使わずに、機...
~
***半教師あり学習|Semi-supervised learning
半教師あり学習とは、学習の際に少量の正解ラベルつきデータ...
~
***強化学習|Reinforcement learning
強化学習とは、正解ラベルの代わりに「報酬」を使う手法です...
~
~
**教師あり学習の手法
大きく2種類、主にカテゴリを予測する「分類(クラス分類)...
~
***分類
分類(クラス分類)とは、あるサンプルが与えられたときに、...
-''ロジスティック回帰'' > 詳細:[[LogisticRegression]]
&small(注)「回帰」という文字を使いますが、「分類」の手法...
-''サポートベクターマシン'' > 詳細:[[SupportVectorMac...
-''決定木'' > 詳細:[[DecisionTree]]
-''ランダムフォレスト'' > 詳細:[[RandomForest]]
-''ニューラルネットワーク'' > 詳細:[[NeuralNetwork]]
&small(ディープラーニングはこの技術の応用(中間層を増やし...
~
***回帰
回帰とは、あるサンプルが与えられたときに、そのサンプルに...
-''線形回帰'' > 詳細:[[LinearRegression]]
-非線形回帰
-以下、回帰の手法としても用いられます
--サポートベクターマシン
--ランダムフォレスト
--ニューラルネットワーク
~
~
**教師なし学習の手法
***クラスタリング
クラスタリングはサンプルを自動的にグループ分けする手法で...
クラスタリングでは「いくつに分けるか」という「分類数」の...
-''k-means'' > 詳細:__[[k-means]]__
~
***次元削減(次元圧縮)
次元削減とは文字通り「データの次元数を減らす」ことですが...
一般に、説明変数(特徴量)が多いと、対象を捉えて識別する...
-''主成分分析(PCA)'' > 詳細:__[[Statistics/PCA]]__
-ニューラルネットワーク(オートエンコーダー系)
~
~
**用語解説
***説明変数と目的変数
関数モデルを '''y = f(X) ''' と書いた場合の、X が説明変数...
-説明変数:explanatory variable
物事の原因となる変数。一般に X を使います。文献によってい...
--特徴量 feature / attribute
--予測変数 predictor variable
--独立変数 independent variable
-目的変数:target variable
物事の結果(予測)となる変数。一般に y を使います。文献に...
--ラベル label
--応答変数 response variable
--従属変数 dependent variable
-付記:X vs Y の組み合わせは、以下のパターンが多いようで...
--説明変数 vs 目的変数
--特徴量 vs ラベル
--予測変数 vs 応答変数
--独立変数 vs 従属変数
~
***学習用データとテストデータ
機械学習(教師あり)では、手持ちのデータを「学習用データ...
手持ちのデータを全て学習用データとして使うと、そのデー...
データの分割には、以下のような方法があります。
-Hold-out:全体を一定の比率(例えば7:3)で分割
-Cross Validation:全体をn個に分割して、n-1個を学習用、1...
-Leave One Out:上記の特殊版。1個だけテストデータとして...
~
***目的関数と損失関数
教師あり学習では、入力 x に対して成分 w を用いて目的関数 ...
目的関数の最適化問題を解くことは、すなわち、損失関数(...
例えば回帰問題では、一般に以下のような「二乗損失」を用...
-目的関数:'''y = f ( w, x )'''
-損失関数:'''L ( y , f ( w, x ) ) = ΣSUB{i}; ( ySUB{i}; ...
''参考'':損失関数、評価関数、誤差関数、コスト関数、目的...
https://zenn.dev/nekoallergy/articles/machinelearning-func
~
***活性化関数
ニューラルネットワークにおいて線形変換(重み付き入力の総...
-中間層で用いる活性化関数
--''ステップ関数(形式ニューロン)''
結果が閾値θよりも大きいか否かで、出力が単純に0または1の...
''' f( x ) = 0(x≦θ), 1(x>θ)'''
--''線形結合(単純パーセプトロン)''
結果の値にバイアスを加えただけです。出力は線形連続になり...
''' f( x ) = ax + b'''
--''シグモイド関数''
入力した値が大きければ大きいほど1に近づき、小さければ小さ...
'''f( x ) = 1 / ( 1 + exp(-x) )'''
--''tanh関数''
出力が−1から1なので出力がゼロになることでシグモイド関数...
'''f( x ) = ( exp(x) - exp(-x) ) / ( exp(x) + exp(-x) )'''
--''ReLU(ランプ関数)''
入力が 0以下のときは 0、1より大きいときは入力をそのまま出...
''' f( x ) = 0(x<θ), x(x≧θ)''' あるいは '''f( x ) ...
-出力層で用いる活性化関数
--''ソフトマックス関数''
各出力 f( xSUB{i}; ) の値をすべての '''i''' について合計...
''' f( xSUB{i}; ) = exp(xSUB{i};) / ΣSUB{j}; exp(xSUB{j};...
--''恒等関数''
最もシンプル、入力値をそのまま出力するものです。
'''f( x ) = x '''
~
***最適化アルゴリズム(オプティマイザ)
ニューラルネットの文脈では、最適化とは「出力の誤差が最小...
-[[SGD>Google:最適化 SGD]]:Stochastic Gradient Descent ...
-[[Momentum>Google:最適化 SGD]]
-[[Nesterov Accelerated Gradient>Google:最適化 Nesterov A...
-[[Adaptive Learning Rate>Google:最適化 Adaptive Learning...
Momentum法と異なり、学習率を自動調整することを目指したの...
Adagrad, RMSProp, Adadelta, Adam, Adamax, Eve,
-[[YellowFin>Google:最適化 YellowFin]]
~
~
**APPENDIX
***関連ページ
-[[DataScience]]
-[[ArtificialIntelligence]]
-[[ArtificialIntelligence/Links]]
-[[Data]]
-[[Statistics]]
-[[DataVisualization]]
-[[MachineLearning]]
--[[DecisionTree]]
--[[k-means]]
--[[LinearRegression]]
--[[LogisticRegression]]
--[[MultipleCorrespondenceAnalysis>Statistics/MCA]]
--[[NeuralNetwork]]
--[[PrincipalComponentAnalysis>Statistics/PCA]]
--[[RandomForest]]
--[[SupportVectorMachine]]
-[[DataMining]]
-[[Python]]
--[[Pandas]]
--[[scikit-learn]]
-[[GoogleColaboratory]]
-[[Orange]]
-[[OpenData]]
~
~
ページ名: