1. ホーム
  2. 人工知能

人工知能AI:TensorFlow Keras PyTorch MXNet PaddlePaddle ディープラーニングの実践 part1

2022-02-27 09:25:30

<スパン ニメンシャ

人工知能 AI: TensorFlow Keras PyTorch MXNet PaddlePaddle ディープラーニングの実践 part1

人工知能 AI: TensorFlow Keras PyTorch MXNet PaddlePaddle ディープラーニングの実践 part2


<スパン C/C++ノート、Pythonノート、JavaWeb+ビッグデータノート

tensorflow 2.0 関数解説

Numpy関連関数の説明

pandas関連の構文詳細

PyTorch関連関数の説明

MXNet関連機能説明

Kerasディープラーニングの動作

<スパン Python関連構文詳細

matplotlib関連の構文説明

高次の数字関連知識

畳み込みニューラルネットワーク

人工知能の関連用語の概念に関する知識


<スパン IoUクロスマージ率, ターゲット検出, RCNN, SPPNet, Fast R-CNN, Faster R-CNN, RPN region proposal network, FPN feature pyramid, yolo, FCN full convolution based semantic segmentation, デコンボリューション, Mask RCNN

ニューラルネットワーク:正則化 パラメトリック ドループアウト BN 分散 バイアス 距離損失 勾配 メトリック 学習レート ハイパーパラメータ 正規化 標準化 活性化 オーバーフィット 抑制 データ拡張 ラベルスムージング

Tensorflowの基本、移行学習の微調整、カスタムモデル/レイヤー/損失/評価メトリクス、モデルの読み込み保存、TensorBoardデータモジュールのチェックポイント、@tf.function

SVM サポートベクターマシン、線形回帰、ロジスティック回帰、K-最近傍アルゴリズム KNN、KD ツリー、決定木、統合学習 Bagging random forest、統合学習 Boosting AdaBoost GBDT、k-means クラスタリング アルゴリズム


<スパン Python インタビューの質問 part1

Python インタビューの質問 パート2

正規分布(ガウス分布)、一様分布

TensorFlowのテンソル間演算のブロードキャスト機構、numpyの配列間演算のブロードキャスト機構

科学的記数法におけるe

Numpy/PandasとTensorflowやKerasなどの各種AIフレームワークの軸値の違いについて

Tensor 型の変数の値を取得する。

回帰問題のモデル評価 MSE、RMSE、MAE、R-2乗

非最大抑制 NMS(ノンマキシマムサプレッション)

フラット化、リシェイプ、バッチ、リピート、ステップ数、エポック数。

ImageDataGenerator.flow_from_directory(...)

ジェスチャー認識:EfficientNetモデルによる移行、VGG16モデルによる移行

OpenCV: Pythonがカメラを呼び出しながら、OpenCVの学習済み検出器を用いてライブ画像から顔や目を検出します。

googlenetが提案するInceptionの構造的優位性、softmaxのBP導出、クロスエントロピ損失のBP導出

ニューラルネットワークの勾配消失/勾配爆発問題、ニューラルネットワークのオーバーフィット問題、畳み込みネットワークの出力サイズ計算/フィーリングフィールド計算、活性化関数、sgd/momentum/rmsprop/adam 最適化アルゴリズム

逆畳み込み/転回畳み込み Conv2DTranspose、ヌル畳み込みの特徴とその応用例

ResNetのアーキテクチャとコンピュータビジョンにおける成功の分析

python: N 番目の醜い数を小さいものから大きいものへと並べる

BATCH_SIZEサイズの設定がトレーニング経過時間に与える影響

事前学習済みモデルに読み込む重みファイル

ニューラルネットワークモデル可視化ツール「Netron


Kerasを用いたMNIST手書き数字認識用シンプルニューラルネットワークの定義

データ構造とアルゴリズム(Java/python/C実装): 時間の複雑性、バブルソート、選択ソート、挿入ソート、ヒルソート、クイックソート、包含ソート、バイナリツリー、キュー、連鎖表、スタック

機械翻訳MXNet(アテンション機構付きエンコーダ・デコーダを使用)

10分でできるPyTorchのクイックスタート - RNN

spark-scala は tensorflow2.0 の学習済みモデルを呼び出します。


CV 

CNN RCNN, SPPNet, Fast RCNN, Faster RCNN, YOLO V1 V2 V3, SSD, FCN, SegNet, U-Net, DeepLab V1 V2 V3, マスク型RCNN

コンピュータビジョンの面接の質問

<スパン コンピュータビジョン CV: 画像処理面接の質問

面接での質問:コンピュータビジョン画像処理CV、顔認識

面接の質問です。コンピュータビジョン 画像処理 CV

CV面接の質問:ターゲット検出、ターゲットセグメンテーション

CV面接の質問

<スパン コンピュータビジョン

最近傍分類器、L1距離、L2距離

人工ニューラルネットワーク(ANN/NN), 知覚機械(PLA)

損失関数(クロスエントロピ損失クロスエントロピ、対数尤度損失、多階級化SVM損失(ヒンジ損失))、ソフトマックス分類器、クロスエントロピ損失クロスエントロピ

<スパン 前方伝搬、後方伝搬(バックワードプロパゲーション)、勾配降下、微分、連鎖法則

<スパン 浅いニューラルネットワーク/深いニューラルネットワークと順伝播・逆伝播の計算手順、非線形活性化関数(Sigmoid, Tanh, Relu, Leaky ReLU)、パラメータとハイパーパラメータ

局所最適、勾配消失、鞍点、ヘシアンマトリック、バッチ勾配降下アルゴリズム(バッチ勾配降下BGD、小バッチ勾配降下ミニバッチGD、ストカスティック勾配降下SGD)

<スパン 運動量勾配降下法(Momentum, exponentially weighted average)、学習率法のパラメータ別適応(Adagrad, RMSprop, Adam)、学習率アニーリング、正規化/ノーマライゼーション

<スパン バイアスと分散、L1正則化、L2正則化、ドロップアウト正則化、ニューラルネットワークチューニング、バッチ正規化 バッチ正規化(BN層)、早期停止、データ補強

畳み込みニューラルネットワーク CNN、知覚野、エッジ検出、畳み込み層(ゼロパディングパディング、ステップサイズ、マルチチャンネル畳み込み、複数の畳み込みカーネル)、プーリング層 Pooling、完全連結層

<スパン LeNet-5、AlexNet、NIN、VGG(VGG16、VGG19)、GoogLeNet(Inception v1 v2 v3 v4)、Xception、ResNet、DenseNet

深層学習フレームワーク TensorFlow:テンソル、自動導出機構、tf.kerasモジュール(モデル、層、損失、オプティマイザ、メトリクス)、多層パーセプトロン(=多層完全接続ニューラルネットワークMLP)。

手書き数字認識のための畳み込みニューラルネットワークのKeras実装、移動学習、tf.keras.applicationsの使用法

KerasのSequential/Functional API モデルを構築する2つの方法、モデル/重みの保存と復元、LayerLayer/Loss functionLoss/Evaluation metricMetricをカスタマイズする。

コールバック コールバック関数(Checkpoint, TensorBoard), tf.data, ImageDataGenerator

Tensorflowの実行モード。Eager実行ダイナミックグラフモード、グラフ実行グラフモード、グラフ実行グラフモードを実装した@tf.function、tf.Session

TensorFlow分散学習:シングルコンピュータ・マルチカード学習MirroredStrategy、マルチコンピュータ学習MultiWorkerMirroredStrategy

スパム分類、EfficientNetモデル、ImageDataGenerator、Mixup学習、Random Erasing、Label smoothing正則化、tf.keras.Sequence

スパム分類、EfficientNetモデルB0〜B7、Rectified Adam (RAdam)、Warmup、Warmupによるコサインアニール学習率の減衰

tf.saved_model.save モデルのエクスポート、TensorFlow Servingモデルのデプロイ、TensorBoardにおけるHParamsのハイパーパラメータチューニング

ターゲット検出

ターゲット検出 R-CNN

ターゲット検出 SPPNet

ターゲット検出 高速R-CNN

ターゲット検出 R-CNNの高速化、RCNNインターフェースの高速化

ターゲット検出 YOLO V1、YOLO V2、YOLO V3 アルゴリズム

ターゲット検出 SSDアルゴリズム

KITTI自律走行データセットの学習・検出処理(人・車両検出ケース)、KITTIデータセットのTFRecord形式保存、YOLO V3/Yolo V3 Tinyマイグレーション学習

ターゲットセグメンテーション

<スパン ターゲットセグメンテーション:fcn完全畳み込みネットワーク、アップサンプリング upsample、デコンボリューション/トランスポーズコンボリューション Conv2DTranspose、融合予測用ジャンプ接続スキップ層

ターゲットセグメンテーション SegNet、U-Net

ターゲットのセグメンテーション DeepLab V1、DeepLab V2、DeepLab V3、DeepLab V3+、ASPP/ASPP+、エンコーダ-デコーダ、CRF

IoUを計算する。クロスマージ比率の算出

ターゲットセグメンテーション マスク RCNN

ターゲットセグメンテーション マスク RCNN バルーンセグメンテーション事例 part1

ターゲットセグメンテーション マスク RCNN バルーンセグメンテーションケース part2

ターゲット追跡 FCNT、GOTURN、SiamFC

<スパン OpenCVの紹介

OpenCV: 画像の読み込み/保存、線/円/四角形の描画、画像内のピクセル点の取得と変更、画像チャンネルの分割とマージ

OpenCVの算術演算:画像の足し算、画像の混ぜ合わせ

OpenCV画像処理:幾何学変換、画像拡大縮小、画像平行移動、画像回転、アフィン変換、透過変換、画像ピラミッド

OpenCV画像処理:形態素演算、連結性、侵食と拡張、開閉演算、ソルティアとブラックハット

OpenCVの画像スムージング:プレッツェルノイズ,ガウシアンノイズ,平均フィルタリング,ガウシアンフィルタリング,メディアンフィルタリング

OpenCV: ステンシルマッチング, ハフ変換, ハフライン検出, ハフ円検出

OPenCV: フーリエ変換,時間領域と周波数領域,スペクトルと位相スペクトル,フーリエステージ,離散フーリエ変換(DFT),周波数領域フィルタリング,ハイパスとローパスフィルタ,バンドパスとバンドリジェクションフィルタ

OpenCV: 輪郭検出,輪郭の検出,輪郭の描画,凸包,画像のモーメント特徴量

OpenCV: 画像分割、閾値、完全閾値、適応閾値、大津閾値(大津法)、Watershed Algorithm、GrabCut Algorithm

<スパン OpenCV: ヒストグラム,グレースケール・ヒストグラム,マスク,ヒストグラム平滑化

OpenCV: エッジ検出,ソーベル検出演算子,ラプラシアン演算子,キャニーエッジ検出

OpenCVの画像特徴抽出:コーナーポイント特徴、HarrisとShi-Tomasアルゴリズム、SIFT/SURFアルゴリズム、FastとORBアルゴリズム

OpenCV: LBP および HOG 特徴量演算子

OpenCV: ビデオの読み書き、ファイルからビデオを読み込んで再生、ビデオの保存

OpenCV: ビデオトラッキング,Mean-Shift アルゴリズム,Camshift アルゴリズム

OpenCV: 顔検出,Haar特徴量分類器,OpenCVで学習された検出器

numba: Python の配列と数値計算関数をコンパイルするためのコンパイラ

<スパン イムティルス

DNNモジュールの共通API, OpenCVのDNNモジュール

<スパン 自動運転:車線検出、速度検出、リアルタイム通過追跡、ビデオベースの車両追跡、交通統計

トラフィック検出の実装:多目的トラッキング、カルマンフィルタ、ハンガリーアルゴリズム、SORT/DeepSORT、yoloV3、仮想コイル法、交差平行比IOU計算

多目的なトラッキング DBT、DFT、カルマンアルゴリズムとKMアルゴリズムに基づくバックエンド最適化アルゴリズム、SORT/DeepSORT、マルチスレッド単一ターゲットトラッキングに基づくマルチターゲット・トラッキング・アルゴリズムKCF

交差点と比率の異なる表現間の変換を計算するIOU、候補箱

カルマンフィルター

カルマンフィルターの実際

目標推定モデル - カルマンフィルター

ハンガリー語のアルゴリズム

データの関連付け:ハンガリーアルゴリズムを用いたターゲットフレームと検出フレームの関連付け

SORT, DeepSORT

<スパン マルチターゲット・トラッキング

yoloV3モデル

yoloV3によるターゲット検出

フォーク&ライド:バーチャルコイル方式による交通量計測

動画内のトラフィック数

<スパン レーンライン検出

<スパン カメラキャリブレーション、テンソルキャリブレーション、大きな尤度推定/大きな尤度パラメータ推定、ニュートン法、ガウシアンニュートン法、LMアルゴリズム、sin/cos/tan/cot

カメラ補正・画像補正:画像デリアシング

レーンライン抽出。Sobelエッジ抽出アルゴリズム

パースペクティブの変換

レーンラインの位置決めとフィッティング:ヒストグラムによるレーンラインの位置決め

車線曲率・中心点逸脱距離計算機能

ビデオ内の車線を検出する

シングルターゲット・トラッキング SiamMask: ターゲット別車両トラッキング part1

シングルターゲット・トラッキング SiamMask: ターゲット別車両トラッキング part2

単一目標追跡シャムネットワーク群。SiamFC, SiamRPN, 一発追尾, 一発追尾単標本学習, DaSiamRPN, SiamRPN++, SiamMask

シングル・ターゲット・トラッキング:トラッキング効果

シングル・ターゲット・トラッキング:データセット処理

シングルターゲット・トラッキング:モデル構築

シングルターゲット・トラッキング:モデル学習

シングルターゲット・トラッキング:モデルテスト

顔認識機能実装の原理とアルゴリズムの紹介

<スパン 顔認識:顔データセット

Adaboost顔検出。Haar特徴と積分マップのカスケード、および分類器

キーポイント抽出:顔認識、疲労検出、顔キャリブレーション、顔データベース

opencvのface_recognitionやhaarの顔特徴量を用いたリアルタイム顔認識、モザイク顔、マッピング顔をカメラに呼び出す。

Adaboost顔検出

顔認識, opencvにおけるHaar顔特徴量: ビデオ/画像 パーフーム顔検出/顔認識

顔認識機能:カメラによるリアルタイム顔モザイク、疲労検知、ライブ検知(口開け検知)、2つの顔の類似度計算、顔キャリブレーション

マスク検出:マスク着用データセットの自動手動生成、マスク着用顔の有無の検出

Dlibです。顔器官パーツの特徴点を認識するための学習用Dlib

in vivoテスト:Keras

絵文字の検出:pyimage

性別検出認識、年齢検出認識


自然言語処理

NLPインタビューの質問

インタビューコードに関する質問

インタビューに関する質問

ディープラーニングの紹介

<スパン ニューラルネットワークの紹介

PyTorchインストールGPU版(CUDA/cuDNN)

ピトルチテンソル

Pytorch自動導出、勾配降下、バックプロパゲーション

Pytorch線形回帰

Pytorchベースモデル: nn.Module、nn.Sequential、オプティマイザクラス、一般的な損失関数

最適化アルゴリズム:勾配降下アルゴリズムBGD、確率的勾配降下SGD、小バッチ勾配降下MBGD、運動量法、AdaGrad、RMSProp、オーバーフィッティング回避/学習促進 ドロップアウト、バッチ正規化

Pytorchデータの読み込み。データセット、DataLoader、自己完結型データセット(MNISTデータセット)

手書き数字認識のためのPytorch

Pytorch: jieba分割、hanlp分割、語彙アノテーション、名前付き実体認識、ワンショット、Word2vec (CBOW, skipgram), Word Embedding単語埋め込み、fasttext

Pytorchテキストデータ解析手法(タグ数分布、文長分布、単語頻度統計、キーワードワードクラウド)、テキスト特徴処理(N-gram特徴、テキスト長指定)、テキストデータ拡張(逆翻訳データ拡張手法)。

Pytorch ニューストピックの分類タスクのためのエンベッディング層の使用

ピトーチ RNN、LSTM、GRU、Bi-GRU、Bi-LSTM、勾配消失、勾配爆発

アテンションメカニズム、BMオペレーション

Pytorch: エンベッディング層 Embedding, EmbeddingBag

Pytorch: Pytorchで複数の学習モデルの書き込みが可能

ピトーチ RNN、LSTM、GRU

ピトーチ バッチノルム1d, バッチノルム2d, バッチノルム3d

Pytorch: モデルの保存と読み込みの方法

Pytorch RNN, LSTM, GRUによる人物分類器の構築(ワンショット版、エンベッディング層版)

Pytorch: デコーダ側アテンション機構、英語翻訳タスクのためのseq2seqモデルアーキテクチャ

ワードエンベデッドレイヤーの埋め込み原理

ピトーチ Transformer (エンコーダ・デコーダ・デコーダ、マルチヘッド注目機構、マルチヘッド自己注目機構、マスクテンソル、フィードフォワード完全連結層、正規化層、サブ層接続構造、パイトキャスト) part1

ピトーチ Transformer (エンコーダ・デコーダ・デコーダ、マルチヘッド注目機構、マルチヘッド自己注目機構、マスクテンソル、フィードフォワード完全連結層、正規化層、サブ層接続構造、パイトキャスト) part2

Pytorch Transformerで言語モデルを構築する

Pytorch: transpose, view, t(), contiguous()

Pytorch: model.train, model.eval, torch.no_gradを使用した場合。

fasttext: テキスト分類、単語ベクトルの学習、単語ベクトルの移動

torch.hub.loadは自動的に学習済みモデルファイルをダウンロードし、学習済みモデルをロードします。

bert-base-uncased-pytorch_model.bin

スクリプトファイル transformers の微調整: transformers-cli ログイン、transformers-cli アップロード

Pytorch 自然言語処理の移行学習、自然言語処理の標準データセット、自然言語処理の一般的な事前学習モデル、事前学習モデルの読み込みと使用、抱合顔の微調整用トランスフォーマー、スクリプトファイル

シェイクスピア風テキスト生成タスク

バハダナウアテンション機構:seq2seqに基づくスペイン語から英語への機械翻訳タスク、デコーダ側アテンション機構、seq2seqモデル・アーキテクチャ

BahdanauAttentionAttention機構、LuongAttentionAttention機構

tf.keras.losses.SparseCategoricalCrossentropy

pythonコマンドでrun_glue.py model fine-tuning ファイルを実行し、モデルの微調整を行います。

tf.random.categorical、温度パラメータ温度

TensorFlow 2.0推奨のトレーニングの書き方

run_glue.py 微調整スクリプトコード

<スパン BERTモデルへの動的量子化技術の適用(動的量子化技術を用いた学習済みBERTモデルの圧縮)、Huggingfaceを用いた学習済みBERTモデルの微調整、モデル圧縮技術における動的量子化と静的量子化の比較

非圧縮オリジナルモデルとそのモデル状態を保存、圧縮モデルとそのモデル状態を保存、非圧縮オリジナルモデルファイルとそのモデル状態をロード、圧縮モデルとそのモデル状態をロード

GPUによる並列処理でResNetモデルを実現

画像の記述生成タスク、移動学習を用いた画像の記述生成処理、CNNエンコーダ+RNNデコーダ(GRU)のモデル構成、バフダナウアテンション機構、デコーダ側でのアテンション機構

IMDB映画レビューのセンチメント分析タスク:2層bi-LSTMモデル(双方向性LSTM)

インテリジェントな対話システム。ユニット対話API

オンラインチャットの一般的なアーキテクチャとツールの紹介です。Flask web, Redis, Gunicornサービスコンポーネント, Supervisorサービスモニタ, Neo4jグラフデータベース

<スパン スーパーバイザーインストール

Linuxでのneo4jのインストール

neo4jのグラフデータベース。Cypher

<スパン neo4jグラフデータベース: 構造化データパイプライン、非構造化データパイプライン

名前付きエンティティ監査タスク:BERT中国語事前学習モデル

名前付きエンティティ監査タスク:RNNモデルの構築

Named Entity Auditタスク:モデル学習

名前付き実体の認識タスク:BiLSTM+CRF part1

名前付き実体の認識タスク:BiLSTM+CRF part2

名前付き実体の認識タスク:BiLSTM+CRF part3

<スパン オンライン部分:werobotサービス、メインロジックサービス、文関連モデルサービス、BERT中国語事前学習モデル+微調整モデル(目的:2文text1とtext2間に関連があるかどうかを比較)、Flaskでのモデル展開

システムインターフェイスのテストとデプロイメント

オフライン部分+オンライン部分。固有表現監査タスクのRNNモデル、固有表現認識タスクのBiLSTM+CRFモデル、BERT中国語事前学習+微調整モデル、werobotサービス+flask

Softmaxバックプロパゲーションの導出、Bertのモデル構成

BERT モデルの学習過程、推論中に BERT モデルが行う性能最適化、および学習中に BERT モデルが行う性能最適化について、簡潔に説明すること。

推量型推薦システムの設計方法

fasttextモデルが大量のカテゴリに対して高速に学習できる理由と、fasttextモデルの評価指標を向上させるためにどのような最適化が行われたのか

モデルの学習中に発生した問題とその解決策、ハイパーパラメータの自動チューニング方法の理解、モデル展開時のホットアップデートの実装方法、最近読んだ論文など。


エンコーダ・デコーダフレームワーク+アテンション機構

<スパン ピトーチ Transformer (エンコーダ・デコーダ・デコーダ、マルチヘッド注目機構、マルチヘッド自己注目機構、マスクテンソル、フィードフォワード完全連結層、正規化層、サブ層接続構造、パイトキャスト) part1

ピトーチ Transformer (エンコーダ・デコーダ・デコーダ、マルチヘッド注目機構、マルチヘッド自己注目機構、マスクテンソル、フィードフォワード完全連結層、正規化層、サブ層接続構造、パイトキャスト) part2

Pytorch: デコーダ側アテンション機構、英語翻訳タスクのためのseq2seqモデルアーキテクチャ

BahdanauAttentionAttention機構、LuongAttentionAttention機構

バフダナウAttention attention mechanism: seq2seqに基づくスペイン語から英語への機械翻訳タスク、デコーダ側Attention attention mechanism、seq2seqモデル・アーキテクチャ

画像の記述生成タスク、移動学習を用いた画像の記述生成処理、CNNエンコーダ+RNNデコーダ(GRU)のモデル構成、バフダナウアテンション機構、デコーダ側でのアテンション機構

アテンションメカニズム、BMオペレーション

注意のメカニズム SENET, CBAM

機械翻訳MXNet(アテンション機構付きエンコーダ・デコーダを使用、すなわち、エンコーダ・デコーダ・フレームワーク+アテンション・アテンション機構)

Seq2Seqベースの中国語チャットボットプログラミング実践(エンコーダー・デコーダー・デコーダーフレームワーク+アテンション機構)

Transformerに基づくテキストセンチメント分析のプログラミング実践(エンコーダ・デコーダ・デコーダの枠組み+注意喚起の仕組み+位置エンコード位置エンコード)。

Note: This article "Transformer-based Programming Practices for Text Sentiment Analysis (Encoder-Decoder Decoder Framework + Attention Mechanism + Positional Encoding Position Encoding)"
	The Model type model of Transformer implemented in this article is actually a modified special version of Transformer, because only Encoder encoder is implemented in the Model type model of Transformer.
	Because the Model type model of Transformer only implements Encoder, but not Decoder, and because the current Model type model of Transformer is dealing with classification task.
	So we only use the Encoder encoder to extract the features and finally fit the classification through the fully connected layer network.



機械学習(Sklearn) 

インタビューの質問:機械学習

ナンピィ

人工知能の概要、人工知能の歴史、人工知能の主な枝、機械学習のワークフロー、機械学習プロジェクト全体のプロセス、機械学習アルゴリズムの分類、独立同質分布、モデル評価、ディープラーニングの紹介

Azure機械学習エクスペリメント

PandasはExcelの読み込みと書き込み、データベースの読み込みと書き込み MySQL

パンダ

Matplotlib

95%信頼区間

<スパン シーボーン

KNN K-Nearest Neighborアルゴリズム。

特徴量工学 - 特徴量の前処理。正規化, 正規化

距離の測定基準。ユークリッド距離 / マンハッタン距離 / チェビシェフ距離 / ミンコフスキー距離 / 正規化ユークリッド距離 / コサイン距離 / ハミング距離 / ジャカード距離 / マルクス主義距離

数学:導関数 / 一般的な関数の導関数 / 行列(ベクトル)の導関数

データ分割:leave_test_split、LeaveOneOut、GridSearchCV(クロスバリデーション法+グリッドサーチ法)、自助努力によるもの

損失関数としての最小二乗法と、その後の平均二乗誤差(MSE)の違いについて

正規方程式

勾配降下法:完全勾配降下法(FG)、確率的勾配降下法(SG)、小バッチ勾配降下法(ミニバッチ)、確率的平均勾配降下法(SAG). 勾配降下アルゴリズムの比較とさらなる最適化。

対称行列、正方行列、逆行列、共分散行列

正則化線形モデル。リッジ回帰(=線形回帰の修正)、ラッソ回帰、エラスティック・ネット、アーリーストッピング

<スパン 多項式回帰

次元カタストロフィー, アンダーフィット, オーバーフィット, L1正則化, L2正則化

L1正則化、L2正則化、ベクトル、行列のパラメトリゼーション

分類におけるカテゴリのアンバランスの解消:アンバランス学習、オーバーサンプリング、アンダーサンプリング

<スパン 不偏推定

<スパン リニアレグレッション

分類の評価方法:精度と再現性、ROC曲線とAUC指標の比較、ROC曲線のプロット。

ロジスティック回帰

特徴工学-特徴抽出:辞書特徴抽出、テキスト特徴抽出、jieba単語分割処理、Tf-idfテキスト特徴抽出

決定木アルゴリズム (I)

決定木アルゴリズム(II)

決定木アルゴリズム (III)

<スパン 決定木アルゴリズム (iv)

<スパン 統合学習。バギング、ランダムフォレスト、ブースティング、GBDT

クラスタリングアルゴリズム

プレーンベイズ

SVM サポートベクターマシン

EMアルゴリズム

フーバー・ロス

HMMモデル マルコフ連鎖、隠れマルコフモデル

ラグランジェ乗数法

極限尤度関数の対数をとる理由

<スパン 統合された学習。XGBoost

統合学習:lightGBM(I)

統合学習:lightGBM (II)

Sklearn:スカイプール新人ライブ大会でのo2oクーポン利用予測 part1

Sklearn:スカイプール新人ライブ大会でのo2oクーポン利用予測part2

Sklearn:スカイプール新人ライブ大会でのo2oクーポン利用予測part3

スカラーンです。家賃・金属モデル予測 Ver.1

スカラーンです。家賃・金属モデル予測 Ver.2

モデルフュージョンスタッキング


パーソナライズド・レコメンデーション・システム

リコメンダーシステム。リコメンダーシステムアーキテクチャ設計

推薦アルゴリズム:協調フィルタリング推薦アルゴリズム、類似度計算

<スパン 協調フィルタリングに基づく映画推薦

レコメンデーションシステム評価

推奨システムにおけるコールドスタートの問題

回帰モデルに基づく協調フィルタリングレコメンデーション

行列分解に基づく協調フィルタリングアルゴリズム

行列分解に基づく協調フィルタリングアルゴリズムの実装。FunkSVD (LFM)

行列分解に基づく協調フィルタリングアルゴリズムの実装。BiasSvd

コンテンツに基づく推薦アルゴリズム

TF-IDFに基づく特徴抽出技術:コンテンツに基づく映画推薦(アイテム像、ユーザ像、ユーザへの推薦結果TOP-N生成)。

パーソナライズドEコマース広告レコメンデーションシステムを導入

ユーザーの行動データからALSモデルを作成し、項目を想起させる

CTR予測データ作成

CTR予測のためのロジスティック回帰(LR)

オフラインでのレコメンデーションデータキャッシュ

<スパン レコメンデーション結果をリアルタイムに生成

推奨システムビジネスアーキテクチャー

<スパン データベース移行

HIVEに収集されたユーザーの行動

<スパン オフラインビジネス入門

オフラインでの記事肖像権計算

オフラインでの記事肖像権の増分計算

Apschedulerは定期的に記事のポートレートを更新しています。

Word2Vecと記事の類似性

記事類似度のインクリメンタルな更新

ユーザープロファイル計算の更新

ユーザー行動データの加工と似顔絵計算

<スパン オフラインでのリコールとソートの紹介

<スパン モデルリコールによるリコールテーブル設計、オフライン・ユーザーベースのモデルリコールセット

コンテンツ想起セットに基づくオフラインユーザー

オフラインユーザー呼び出し時限式更新

リアルタイム・コンピューティング・サービスの紹介

<スパン リアルタイムのログ解析

<スパン リアルタイムリコールセット事業

トップページ&新着記事 リコール

Sparkのパフォーマンス最適化

リアルタイム・レコメンデーションビジネスの紹介

Grpcインターフェース・ドッキング

ABTest実験センター

<スパン レコメンデーションセンターロジック

リコールセットの読み取りとレコメンデーションセンターのドッキング

推奨キャッシュサービス

オフラインでのソートモデル学習

オフラインCTRフィーチャーセンターのアップデート

ソートモデル・オンライン予測

ディープラーニングに関連するリコメンダーシステム

<スパン ワードベクター-ワード2ベクター

DNNテキスト多階級化

学習データを保存したTFRecords