Поделиться через


ClassificationModels type

Определяет значения для ClassificationModels.
KnownClassificationModels можно использовать взаимозаменяемо с ClassificationModels, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

LogisticRegression: логистическая регрессия является основным методом классификации. Она принадлежит группе линейных классификаторов и несколько похожа на полиномиальную и линейную регрессию. Логистическая регрессия быстро и относительно несложна, и удобно интерпретировать результаты. Хотя это, по сути, метод двоичной классификации, он также может применяться к проблемам с несколькими классами.
: градиентный спуск стохастик — это алгоритм оптимизации, который часто используется в приложениях машинного обучения для поиска параметров модели, соответствующих оптимальному подходу между прогнозируемыми и фактическими выходными данными.
MultinomialNaiveBayes: многономиальный классификатор Naive Bayes подходит для классификации с дискретными функциями (например, число слов для классификации текста). Для многономного распределения обычно требуются целые числа функций. Однако на практике дробное число, например tf-idf, также может работать.
БернуллиNaiveBayes: наивный байес классификатор для многовариантных моделей Бернулли.
SVM. Векторная машина поддержки (SVM) — это контролируемая модель машинного обучения, использующая алгоритмы классификации для проблем классификации двух групп. После предоставления наборов моделей SVM помеченных обучающих данных для каждой категории они смогут классифицировать новый текст.
LinearSVM: векторная машина поддержки (SVM) является защищенной моделью машинного обучения, которая использует алгоритмы классификации для проблем классификации двух групп. После предоставления наборов моделей SVM помеченных обучающих данных для каждой категории они смогут классифицировать новый текст. Линейный SVM лучше всего выполняется, если входные данные являются линейными, т. е. данные можно легко классифицировать путем рисования прямой линии между классифицированными значениями на графике.
KNN: алгоритм K-ближайших соседей (KNN) использует "сходство признаков" для прогнозирования значений новых точек данных, что означает, что новая точка данных будет назначена значение на основе того, насколько тесно он соответствует точкам в обучающем наборе.
DecisionTree: деревья принятия решений — это непараметрический защищенный метод обучения, используемый как для задач классификации, так и регрессии. Цель — создать модель, которая предсказывает значение целевой переменной, изучая простые правила принятия решений, полученные из функций данных.
RandomForest: случайный лес — это защищенный алгоритм обучения. "лес" он строит, является ансамблем деревьев принятия решений, как правило, обучен с помощью метода "bagging". Общая идея метода мешка заключается в том, что сочетание моделей обучения увеличивает общий результат.
ExtremeRandomTrees: экстремальные деревья — это алгоритм машинного обучения ансамбля, который объединяет прогнозы из многих деревьев принятия решений. Он связан с широко используемым алгоритмом случайного леса.
LightGBM: LightGBM — это градиентная платформа повышения, использующая алгоритмы обучения на основе дерева.
GradientBoosting: метод транзита еженедельных учащихся в сильный учащийся называется Повышение. Процесс повышения градиента работает над этой теорией выполнения.
XGBoostClassifier: XGBoost: Экстремальный алгоритм повышения градиента. Этот алгоритм используется для структурированных данных, где целевые значения столбцов можно разделить на отдельные значения классов.

type ClassificationModels = string