ClassificationModels type
ClassificationModels の値を定義します。
KnownClassificationModels ClassificationModels と同じ意味で使用できますが、この列挙型には、サービスがサポートする既知の値が含まれています。
サービスでサポートされている既知の値
LogisticRegression: ロジスティック回帰は基本的な分類手法です。
これは線形分類子のグループに属し、多項式および線形回帰にやや似ています。
ロジスティック回帰は高速で比較的複雑でなく、結果を解釈するのに便利です。
基本的には二項分類の方法ですが、多クラスの問題にも適用できます。
SGD: SGD: 確率的勾配降下は、機械学習アプリケーションでよく使用される最適化アルゴリズムであり、予測出力と実際の出力の最適な適合に対応するモデル パラメーターを検索します。
MultinomialNaiveBayes: 多項式 Naive Bayes 分類子は、不連続特徴 (テキスト分類の単語数など) を使用した分類に適しています。
多項式分布には、通常、整数の特徴数が必要です。 ただし、実際には、tf-idf などの小数部のカウントも機能する可能性があります。
BernoulliNaiveBayes: 多変量ベルヌーイ モデルの Naive Bayes 分類子。
SVM: サポート ベクター マシン (SVM) は、2 グループ分類の問題に分類アルゴリズムを使用する教師あり機械学習モデルです。
カテゴリごとにラベル付けされたトレーニング データの SVM モデル セットを提供した後、新しいテキストを分類できます。
LinearSVM: サポート ベクター マシン (SVM) は、2 グループ分類の問題に分類アルゴリズムを使用する教師あり機械学習モデルです。
カテゴリごとにラベル付けされたトレーニング データの SVM モデル セットを提供した後、新しいテキストを分類できます。
線形 SVM は、入力データが線形の場合に最適に実行されます。つまり、データは、プロットされたグラフに分類された値の間の直線を描画することによって簡単に分類できます。
KNN: K ニアレスト ネイバー (KNN) アルゴリズムは、"特徴の類似性" を使用して新しいデータ ポイントの値を予測します。これは、新しいデータ ポイントがトレーニング セット内のポイントとどの程度一致するかに基づいて値が割り当てられることを意味します。
DecisionTree: デシジョン ツリーは、分類タスクと回帰タスクの両方に使用される非パラメトリック教師あり学習方法です。
目標は、データ特徴から推論された単純な決定ルールを学習することによって、ターゲット変数の値を予測するモデルを作成することです。
RandomForest: ランダム フォレストは教師あり学習アルゴリズムです。
構築する "フォレスト" はデシジョン ツリーのアンサンブルであり、通常は "バギング" メソッドでトレーニングされます。
バギング方法の一般的な考え方は、学習モデルの組み合わせによって全体的な結果が増加するというものです。
ExtremeRandomTrees: Extreme Trees は、多くのデシジョン ツリーからの予測を組み合わせたアンサンブル機械学習アルゴリズムです。 これは、広く使用されているランダム フォレスト アルゴリズムに関連しています。
LightGBM: LightGBM は、ツリー ベースの学習アルゴリズムを使用する勾配ブースティング フレームワークです。
GradientBoosting: 週の学習者を強い学習者に乗り換える手法は Boosting と呼ばれます。 勾配ブースティング アルゴリズム プロセスは、この実行理論に基づいて動作します。
XGBoostClassifier: XGBoost: 極端な勾配ブースティングアルゴリズム。 このアルゴリズムは、ターゲット列の値を個別のクラス値に分割できる構造化データに使用されます。
type ClassificationModels = string