В Чем Разница Между «accuracy» И «precision» ? Hinative
Решение о том, следует ли использовать precision или recall, зависит от типа вашей проблемы. Если цель состоит в том, чтобы обнаружить все positive выборки (не заботясь о том, будут ли adverse семплы классифицированы как positive), используйте recall. В этом руководстве обсуждалась матрица ошибок, вычисление ее four метрик (true/false positive/negative) для задач бинарной и мультиклассовой классификации. Используя модуль metrics библиотеки Scikit-learn, мы увидели, как получить матрицу ошибок в Python. Recall рассчитывается как отношение числа Constructive выборок, корректно классифицированных как Positive, к общему количеству Positive семплов.
Точность Жен (используется Очень Часто)
Поскольку цель состоит в том, чтобы обнаружить все автомобили, используйте recall. Такой подход может ошибочно классифицировать некоторые объекты как целевые, но в конечном итоге сработает для предсказания всех автомобилей. Подобно precision_score(), функция repl_score() из модуля sklearn.metrics вычисляет recall. Следующий код вычисляет матрицу ошибок для примера двоичной классификации, который мы обсуждали ранее. Мы можем рассчитать эти четыре показателя для семи предсказаний, использованных нами ранее.
Таким образом, accuracy, равная 0.5714, означает, что модель с точностью fifty seven,14% делает верный прогноз. Чтобы вычислить матрицу ошибок для задачи с большим числом классов, используется функция multilabel_confusion_matrix(), как показано ниже. В дополнение к параметрам y_true и y_pred третий параметр labels принимает список классовых меток. Precision измеряет точность модели при определении класса Optimistic https://deveducation.com/.
Теперь предположим, что вам дали снимок с результатами маммографии, и вас попросили определить наличие рака. Таким образом, предпочтительным показателем в данном случае является precision. Если recall имеет большое значение, все Constructive семплы классифицируются верно. Следовательно, модели можно доверять в ее способности обнаруживать представителей класса Positive. В этом руководстве обсуждается матрица ошибок и то, как рассчитываются precision, recall и accuracy метрики.
Матрица Ошибок Для Мультиклассовой Классификации
- Таким образом, accuracy, равная zero.5714, означает, что модель с точностью 57,14% делает верный прогноз.
- Теперь предположим, что вам дали снимок с результатами маммографии, и вас попросили определить наличие рака.
- «Я печатаю очень быстро, но точность моего набора не очень хорошая».
Recall измеряет способность модели обнаруживать выборки, относящиеся к классу Constructive. Чем выше recall, тем больше Constructive семплов было найдено. Рассчитаем accuracy с помощью Scikit-learn на основе ранее полученной матрицы ошибок. Переменная acc содержит результат деления суммы True Positive и True Negative метрик на сумму всех значений матрицы.
Эти модели принимают изображение в качестве входных данных и возвращают координаты прямоугольника, ограничивающего пространство вокруг каждого найденного объекта. Главной задачей является восстановление этого дома эпохи колониализма с полной исторической достоверностью. Точность обязательна для всех, кто работает в точной профессии. Вы бы доверились хирургу, которому не хватает аккуратности, чтобы удалить ваш аппендикс? Его неточность может привести к случайному удалению вашей селезенки.
Стоит учесть, что метрика accuracy может быть обманчивой. Предположим, у нас есть всего 600 единиц данных, из которых 550 относятся к классу Positive и только 50 — к Negative. Поскольку большинство семплов принадлежит к одному классу, accuracy для этого класса будет выше, чем для другого. Для получения дополнительной информации о характеристиках модели используется матрица ошибок (confusion matrix). Матрица ошибок помогает нам визуализировать, «ошиблась» ли модель при различении двух классов. Названия строк представляют собой эталонные метки, а названия столбцов — предсказанные.
Accuracy — это показатель, который описывает общую точность предсказания модели по всем классам. Это особенно полезно, когда каждый класс одинаково важен. Он рассчитывается как отношение количества правильных прогнозов к их общему количеству. В оставшейся части этого текста мы сосредоточимся только на двух классах. В следующем разделе обсуждаются три ключевых показателя, которые рассчитываются на основе матрицы ошибок.
True, если получено верное предсказание, то есть эталонные и предсказанные метки классов совпадают, и False, когда они не совпадают. Единственный способ получить one hundred pc precision — это классифицировать все Optimistic выборки как Optimistic без классификации Negative как Constructive. В популярной Python-библиотеке Scikit-learn есть модуль metrics, который можно использовать для вычисления метрик в матрице ошибок. Перед вычислением матрицы ошибок необходимо выбрать целевой класс. Он будет отмечен как Optimistic, а все остальные отмечены как Negative.
Вот так вычисляется матрица ошибок для задачи двоичной классификации. Теперь посмотрим, как решить данную проблему для большего числа классов. Предположим, что существует проблема бинарной классификации с классами constructive и adverse. Вот пример достоверных или эталонных меток для семи выборок, используемых для обучения модели. В модуле sklearn.metrics есть функция precision_score(), которая также может вычислять accuracy. Она принимает в качестве аргументов достоверные и предсказанные метки.
Precision отражает, насколько надежна модель при классификации Positive-меток. Обратите внимание, что порядок метрик отличается от описанного выше. Например, показатель True Constructive находится в правом нижнем углу, а True Adverse Тестирование производительности — в верхнем левом углу.
Функция вычисляет матрицу ошибок для каждого класса и возвращает все матрицы. Их порядок соответствует порядку меток в параметре labels. Чтобы изменить последовательность метрик в матрицах, мы будем снова использовать функцию numpy.flip(). Параметр pos_label принимает метку класса Positive accuracy это (по умолчанию 1).
Точно так же может быть получена матрица ошибок для Black. Сравните достоверные и полученные метки — мы имеем four верных и three неверных предсказания. Стоит добавить, что изменение граничного условия отражается на результатах. Например, установка порога, равного zero.6, оставляет только два неверных прогноза. В компьютерном зрении обнаружение объекта — это проблема определения местоположения одного или нескольких объектов на изображении.