次の方法で共有


RegressionModels type

RegressionModels の値を定義します。
KnownRegressionModels を RegressionModels と同じ意味で使用できる、この列挙型には、サービスがサポートする既知の値が含まれています。

サービスでサポートされている既知の値

ElasticNet: Elastic net は、一般的な 2 つのペナルティ (特に L1 および L2 ペナルティ関数) を組み合わせた一般的なタイプの正則化線形回帰です。
GradientBoosting: 週の学習者を強い学習者に乗り換える手法は Boosting と呼ばれます。 勾配ブースティング アルゴリズム プロセスは、この実行理論に基づいて動作します。
DecisionTree: デシジョン ツリーは、分類タスクと回帰タスクの両方に使用される非パラメトリック教師あり学習方法です。 目標は、データ特徴から推論された単純な決定ルールを学習することによって、ターゲット変数の値を予測するモデルを作成することです。
KNN: K ニアレスト ネイバー (KNN) アルゴリズムは、"特徴の類似性" を使用して新しいデータ ポイントの値を予測します。これは、新しいデータ ポイントがトレーニング セット内のポイントとどの程度一致するかに基づいて値が割り当てられることを意味します。
なげなわ: なげなわモデルは最小角度回帰に適合します。 これは、正則化の前に L1 でトレーニングされた線形モデルです。
SGD: SGD: 確率的勾配降下は、機械学習アプリケーションでよく使用される最適化アルゴリズムであり、予測出力と実際の出力の最適な適合に対応するモデル パラメーターを検索します。 これは、不正確だが強力な手法です。
RandomForest: ランダム フォレストは教師あり学習アルゴリズムです。 構築する "フォレスト" はデシジョン ツリーのアンサンブルであり、通常は "バギング" メソッドでトレーニングされます。 バギング方法の一般的な考え方は、学習モデルの組み合わせによって全体的な結果が増加するというものです。
ExtremeRandomTrees: Extreme Trees は、多くのデシジョン ツリーからの予測を組み合わせたアンサンブル機械学習アルゴリズムです。 これは、広く使用されているランダム フォレスト アルゴリズムに関連しています。
LightGBM: LightGBM は、ツリー ベースの学習アルゴリズムを使用する勾配ブースティング フレームワークです。
XGBoostRegressor: XGBoostRegressor: Extreme Gradient Boosting Regressor は、基本学習者のアンサンブルを使用した教師あり機械学習モデルです。

type RegressionModels = string