- 人工知能 / Artificial Intelligence / AI ?
- 機械学習 / Machine Learning / ML ?
- 神経回路網 / ニューラルネットワーク / NN ?
- 深層学習 / ディープラーニング / DL ?
実施したルール
- 読み始めたら途中で投げない
- わかんなくてもとりあえず最後まで読む
- 100%理解しようとしない
- ざっくりでいいので自分なりに一言でまとめる
- ぜんぜんわからん、でも可
下記のリンクから、特に理解を助けたものの抜粋
- 言葉の定義からして、わかりやすかったもの
- 論理について詳しく、なおかつわかりやすかったもの
以下、僕が読み進めたときのログなので読まなくていいです。あと、下記のリンクを読み漁ったあとの、自分なりのまとめが最後にあります。すっ飛ばしたいひとはどうぞ。
すげー雑に読み漁った
- 機械学習とは?
- 機械学習 - Wikipedia
なお、データ集合を解析するので、統計学との関連が深い
1959年、アーサー・サミュエルは、機械学習を「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」だとした。
- 機械学習をこれから始める人に押さえておいてほしいこと - Qiita
- 「機械学習」と「ディープラーニング」は何が違うのか? | MUFG Innovation Hub
ディープラーニングでは区別するための「目の付けどころ」をAIが自分で学習し、その性能を向上させていく。
- 「機械学習とは何ぞや」をゆるーく説明してみる - 六本木で働くデータサイエンティストのブログ
- 本人いわく古いが、参考になるものが多くあった
- 「統計学と機械学習の違い」はどう論じたら良いのか - 六本木で働くデータサイエンティストのブログ
ただ、線形モデル族のようにヒトが直感的に理解できる形でモデルが出来上がるとは限らないのが機械学習の特徴で、そこが統計学との大きな違いかもしれません。
- ヒトの直感的理解は単変量モデルまで、直感を超えたければ多変量モデルへ - 六本木で働くデータサイエンティストのブログ
このように、多変量モデルを用いることでヒトの直感的理解を超えた「全体論」的な特徴を捉えることができるというのが今回の取り組みで示したかったことです。
- 「正答率100%」になってしまう機械学習モデルの例を挙げてみる - 六本木で働くデータサイエンティストのブログ
つまり、今回のテニス四大大会のデータで言えば「同一カードでの対戦が5回とか10回とか当該期間内にある場合」なら説明変数に含めても良いわけです。
- おまけ: クラウド機械学習の進歩で「プラモデルのように機械学習システムが作れる」時代が到来しつつある - 六本木で働くデータサイエンティストのブログ
- 「ニューラルネットワーク」や「機械学習」って何?--AIの基本用語をおさらい - CNET Japan
- 機械学習 - Wikipedia
- 人工知能とは?
- 人工知能のやさしい説明「What's AI」
- 人工知能って何?
目標を達成するために必要な事柄を導き出せる
- 人工知能って何?
- 人工知能は人間を超えるか ディープラーニングの先にあるもの (角川EPUB選書)
- 【5分でわかる】人工知能(AI)とは?概要や種類をわかりやすく解説 | 侍エンジニア塾ブログ | プログラミング入門者向け学習情報サイト
- 雑誌っぽい読み物だった↑ かつPR
- 人工知能 - Wikipedia
近年では「サポートベクターマシン」が注目を集めた。また、自らの経験を元に学習を行う強化学習という手法もある。
- 人工知能とは - IT用語辞典 Weblio辞書
- 人工知能(じんこうちのう)とは - コトバンク
- 総務省|平成28年版 情報通信白書|PDF版
- 第2節 人工知能(AI)の現状と未来
- 主に実用について
- 第2節 人工知能(AI)の現状と未来
- 人工知能のやさしい説明「What's AI」
- ニューラルネットワークとは?
- ニューラルネットワーク - Wikipedia
- ニューラルネットワークの基礎解説:仕組みや機械学習・ディープラーニングとの関係は |ビジネス+IT
逆伝搬法「Back Propagation」。正解値の誤差をとり、各層にフィードバックし、重みを調整しながら、正解値に近づけていく
- ↑ この資料はかなり分かりやすかった
- 「ニューラルネットワーク」とは何か:「AI」「機械学習」「ディープラーニング」は、それぞれ何が違うのか - @IT
最初に生まれた、最も包括的な概念がAI。次に発展した機械学習がその中に含まれ、最後に登場したディープラーニングがさらにその中に含まれる構図だ。
- 数学知識もいらないゼロからのニューラルネットワーク入門 | TechCrunch Japan
例えば画像認識においては、畳み込みニューラルネットワーク(Convolutional Neural Network=CNN)というタイプのニューラルネットワークが使われている。
モノをまとめて(本、おもちゃ、電子機器、アート、服などへ)分類していく作業についてよく知っていることだろう。畳み込みレイヤーも同じような作業を通じて、画像をピクセルの特徴ごとにバラバラにしていっているのだ。
- なるほどなぁ
- ニューラルネットワークとは?人工知能の基本を初心…|Udemy メディア
- ニューラルネットワークと深層学習
今のところ、パーセプトロンで構成されたニューラルネットワークに上手に学習させる方法は明らかになっていません。この問題は、シグモイドニューロンと呼ばれる、新しいタイプの人工ニューロンを導入することによって克服することができます。
紛らわしいことに、歴史的理由から、このような複数層のネットワークをときおり多層パーセプトロン(multilayer perceptrons)、またはMLPsと呼びます。しかしこれらはパーセプトロンではなく、シグモイドニューロンです。
- Cauchy–Schwarz inequality - Wikipedia
- コーシー・シュワルツの不等式、なつかしすぎて吹いたww
- ニューラルネットワーク
- 強化学習入門 ~これから強化学習を学びたい人のための基礎知識~ - Platinum Data Blog by BrainPad
- 教師付き学習、教師無し学習、強化学習、の対比がわかりやすく書かれている
- ディープラーニングとは?
- ディープラーニング(Deep Learning)とは?【入門編】 |
- ディープラーニング - Wikipedia
- 前文をほぼすべて抜粋します
深層学習登場以前、4層以上の深層ニューラルネットは、局所最適解や勾配消失などの技術的な問題によって充分学習させられず、性能も芳しくなかった。しかし、近年、ヒントンらによる多層ニューラルネットワークの学習の研究や、学習に必要な計算機の能力向上、および、Webの発達による訓練データ調達の容易化によって、充分学習させられるようになった。その結果、音声・画像・自然言語を対象とする問題に対し、他の手法を圧倒する高い性能を示し、2010年代に普及した。しかしながら、多層ニューラルネットが高い性能を示す要因の理論的な解明は進んでいない。
- ここ → しかしながら、多層ニューラルネットが高い性能を示す要因の理論的な解明は進んでいない。
- これヤバない!? めちゃくちゃ中二心くすぐられる!!
- ディープラーニングは何が「ディープ」なのか :日本経済新聞
- ディープ・ラーニングとは? | SAS
- 具体的な用途などについて
- ディープラーニング – これだけは知っておきたい3つのこと - MATLAB & Simulink
- ディープラーニングとは - コトバンク
- 初心者向け「機械学習とディープラーニングの違い」をシンプルに解説 - GIGAZINE
- ディープラーニングを用いるかべきかという動画
- ディープラーニングの判断根拠を理解する手法 - Qiita
以上。
上記を読んで、自分なりのまとめ
- AIというのは概念。知能っぽいものを人工的につくりたい!的な気持ち
- 人間がアルゴリズムであったり物事の特徴を完全に捉えたうえで実装するのに対し
- ある程度、コンピュータが「自律的に考えている」ように見える、という状態を指す、あくまで概念
- 機械学習(ML)というのは、AIという概念の実現手法のカテゴリのひとつ
- よく統計と比較される
- 統計を既存データのグループ分けと位置づけた場合、機械学習がめざすものは、既存データを元にした、未来の入力に対してあるていど予想ができる状態
- 単純な漸近線によるグループ分けよりも、複雑な回帰曲線で表現される曖昧な事象に対応したい
- ニューラルネットワーク(NN)というのは、機械学習の実装パターンのひとつ
- ディープラーニング(DL)というのは、ニューラルネットワークの構築の流派、あるいは派生
- 歴史的には、3層以上のNNを「深層学習(ディープラーニング)」と呼ぶ
- 層がたくさん、って意味
- 層をたくさんにすると、豊かな判断や、思いがけない予測を、したりするかもね!しないかもね!
雑感
- 特に理解を助けた部分として、ニューラルネットワークと深層学習については、コレがかなり重要な気がする↓
各層をXⅰと置くと、下記漸化式で表現される。3層の場合は、X1が入力層、X2が中間層、X3が出力層。
AiとBiはパラメータ。Aiは行列、BiとXiは縦ベクトル。Aを重みパラメータ、Bをバイアスパラメータと呼ぶ。fは活性化関数と呼び、単純パーセプトロンでは使われていなかった、つまり、f(x)=x
であったが、すると線形になってしまうので、現在は何らかの非線形関数を使う。微分可能な単調関数を使うことが一般的。最もよく使われるのはシグモイド関数のf(x)=1/(1+e^{-x})
。
ニューラルネットワーク#順伝播型ニューラルネットワーク
- あとこれ見ながらコード写経するのは非常に勉強になる↓
ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装
- 作者: 斎藤康毅
- 出版社/メーカー: オライリージャパン
- 発売日: 2016/09/24
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (17件) を見る
- 機械学習かんぜんにりかいした
DRYな備忘録として