本の森JP

2950057411000000000b.jpg

購入形態

PDF
4,212円
数量:

カートに追加されました。カートを見る

カートに入れる

Python機械学習ライブラリ scikit-learn活用レシピ80+

インプレス

Python機械学習のレシピ集80超!

必須のPython機械学習ライブラリを使いこなそう! 機械学習の各手法を80超のレシピとして幅広く解説。具体的には、次のテーマを取り上げます ― ◎機械学習の基本的な枠組み、◎モデル構築前のワークフローと前処理、◎次元削減、◎線形モデルの構築、◎ロジスティック回帰、◎距離指標によるモデル構築、◎交差検証とモデル構築後のワークフロー、◎サポートベクトルマシン、◎決定木とアンサンブル学習、◎テキストと多分類、◎ニューラルネットワーク、◎単純な評価器の作成 ― 原著 2nd Edition待望の翻訳! 本書は『scikit-learn Cookbook - Second Edition』の翻訳書です。 本書の対象読者として、機械学習のPythonプログラミングについてある程度知識または経験のある方を想定しています。

発売日:2019-03-18

ページ数:392ページ

目次

表紙
商標/サンプルコード/正誤表
口絵
著者紹介
レビュー担当者紹介
謝辞
はじめに
本書の内容
本書の対象読者
本書の表記
サンプルコードのダウンロード
第1章 機械学習の枠組みを理解する―NumPyからパイプラインまで/1.1 はじめに
1.2 NumPyの基礎
1.3 Irisデータセットを読み込む
1.4 Irisデータセットを可視化する
1.5 Irisデータセットをpandasで可視化する
1.6 NumPyとmatplotlibを使ってプロットする
1.7 最も小さな機械学習レシピ:SVM分類
1.8 交差検証の紹介
1.9 すべてを1つにまとめる
1.10 機械学習のオーバービュー:分類と回帰
第2章 モデル構築前のワークフローと前処理―サンプルデータの作成から確率的勾配降下法まで/2.1 はじめに
2.2 簡単な分析を行うためのサンプルデータを作成する
2.3 標準正規分布の尺度でデータをスケーリングする
2.4 しきい値化を通じて二値の特徴量を作成する
2.5 カテゴリ値の変数を操作する
2.6 さまざまな戦略を使って欠測値を補完する
2.7 外れ値が存在する状況での線形モデル
2.8 パイプラインを使ってすべてを1つにまとめる
2.9 回帰にガウス過程を使用する
2.10 回帰に確率的勾配降下法を使用する
第3章 次元削減―PCAから性能テストまで/3.1 はじめに
3.2 PCAによる次元削減
3.3 分解に因子分析を使用する
3.4 非線形次元削減にカーネルPCAを使用する
3.5 次元削減にTSVDを使用する
3.6 分類のための分解にDictionary Learningを使用する
3.7 次元削減に多様体を使用する:t-SNE
3.8 次元削減法をパイプラインでテストする
第4章 線形モデル―線形回帰からLARSまで/4.1 はじめに
4.2 直線をデータに適合させる
4.3 機械学習を使って直線をデータに適合させる
4.4 線形回帰モデルを評価する
4.5 リッジ回帰を使って線形回帰の欠点を克服する
4.6 リッジ回帰のパラメータを最適化する
4.7 疎性を使ってモデルを正則化する
4.8 LARSによる正則化へのより基本的なアプローチ
第5章 ロジスティック回帰―データの読み込みからパイプラインまで
5.1 はじめに/5.2 UCI Machine Learning Repositoryからデータを読み込む
5.3 pandasを使ってPima Indians Diabetesデータセットを可視化する
5.4 UCI Machine Learning RepositoryのWebページを調べる
5.5 ロジスティック回帰による機械学習
5.6 混同行列を使ってロジスティック回帰の誤分類を調べる
5.7 ロジスティック回帰で分類のしきい値を変化させる
5.8 ROC分析
5.9 コンテキストなしでROC曲線をプロットする
5.10 データセットの読み込みからROC曲線のプロットまでを1つにまとめる:UCI Breast Cancerデータセット
第6章 距離指標を使ったモデルの構築―k-means法からk近傍法まで/6.1 はじめに
6.2 k-means法を使ったデータのクラスタリング
6.3 セントロイドの個数を最適化する
6.4 クラスタの正確さを評価する
6.5 ミニバッチk-means法を使ってより多くのデータに対処する
6.6 k-means法により画像を量子化する
6.7 特徴空間において最近傍を特定する
6.8 混合ガウスモデル(GMM)による確率的クラスタリング
6.9 k-means法を使って外れ値を検出する
6.10 回帰にk近傍法(KNN)を使用する
第7章 交差検証とモデル構築後のワークフロー―モデルの選択から永続化まで
7.1 はじめに
7.2 交差検証を使ってモデルを選択する
7.3 k分割交差検証
7.4 均衡な交差検証
7.5 ShuffleSplitによる交差検証
7.6 時系列交差検証
7.7 scikit-learnによるグリッドサーチ
7.8 scikit-learnによるランダムサーチ
7.9 分類指標
7.10 回帰指標
7.11 クラスタリング指標
7.12 ダミー推定器を使って結果を比較する
7.13 特徴選択
7.14 L1ノルムによる特徴選択
7.15 joblibまたはpickleを使ってモデルを永続化する
第8章 サポートベクトルマシン―線形SVMからサポートベクトル回帰まで/8.1 はじめに
8.2 線形SVMを使ってデータを分類する
8.3 SVMを最適化する
8.4 SVMによる多クラス分類
8.5 サポートベクトル回帰
第9章 決定木アルゴリズムとアンサンブル学習
9.1 はじめに/9.2 決定木を使って基本的な分類を行う
9.3 pydotを使って決定木を可視化する
9.4 決定木のチューニング
9.5 回帰に決定木を使用する
9.6 交差検証を使って過学習を抑制する
9.7 ランダムフォレスト回帰を実装する
9.8 最近傍に基づくバギング回帰
9.9 勾配ブースティング決定木のチューニング
9.10 アダブースト(AdaBoost)回帰器のチューニング
9.11 scikit-learnでスタッキングアグリゲータを作成する
第10章 テキスト分類と多クラス分類/10.1 分類に確率的勾配降下法を使用する
10.2 ナイーブベイズを使って文書を分類する
10.3 半教師あり学習によるラベル伝播法
第11章 ニューラルネットワーク/11.1 はじめに/11.2 パーセプトロン分類器
11.3 ニューラルネットワーク:多層パーセプトロン
11.4 ニューラルネットワークによるスタッキング
第12章 単純な推定器の作成/12.1 はじめに/12.2 単純な推定器を作成する
索引
著者/翻訳者プロフィール
奥付

著者プロフィール

  • Julian Avila(著者)

    ■著者
    Julian Avila(ジュリアン・アビラ)
    金融とコンピュータービジョンを活動フィールドとするプログラマー兼データサイエンティスト。
    マサチューセッツ工科大学(MIT)卒。大学では数学を専攻し、量子力学コンピュータを研究。

  • Trent Hauck(著者)

    Trent Hauck(トレント・ホーク)
    データサイエンティスト。カンザス大学で学士号と修士号を取得。
    著書に『Instant Data Intensive Apps with pandas How-to』(Packt Publishing)がある。

  • 株式会社クイープ(著者)

    ■翻訳者
    株式会社クイープ
    1995年、米国サンフランシスコに設立。コンピュータシステムの開発、ローカライズ、
    コンサルティングを手がけている。2001年に日本法人を設立。
    主な訳書に、『AIアルゴリズムマーケティング自動化のための機械学習/経済モデル、
    ベストプラクティス、アーキテクチャ』『徹底理解ブロックチェーン ゼロから着実にわかる
    次世代技術の原則』『[第2版]Python機械学習プログラミング 達人データサイエンティスト
    による理論と実践』などがある(いずれもインプレス発行)。


販売元:C&R研究所
商品についてのお問い合わせ先:
https://www.c-r.com/contact/index

発送について:
発送を伴う商品については、原則として3日~5日程度で発送いたします。また、1回の注文につき送料として600円を別途ご請求いたします。