Калькулятор кросс-энтропии
Рассчитайте кросс-энтропийные потери и KL-дивергенцию между истинным и предсказанным распределениями вероятностей.
Как использовать калькулятор кросс-энтропии
- Введите истинную вероятность (от 0 до 1).
- Введите предсказанную вероятность (от 0 до 1).
- Нажмите «Рассчитать» для получения кросс-энтропии и KL-дивергенции.
Примеры использования
- •Мониторинг функции потерь при обучении нейронных сетей.
- •Сравнение выходов модели с эталонными метками.
- •Изучение теории информации в ML.
- •Диагностика переобучения и недообучения.
Формула
H(p,q) = −[p×log(q) + (1−p)×log(1−q)]. KL(p||q) = p×log(p/q) + (1−p)×log((1−p)/(1−q)).
Часто задаваемые вопросы
Что такое кросс-энтропийные потери?
Кросс-энтропия измеряет, насколько предсказанное распределение соответствует истинному. Меньше — лучше.
Что такое KL-дивергенция?
KL-дивергенция измеряет разницу между двумя распределениями вероятностей. Всегда ≥ 0.
Какое значение кросс-энтропии хорошее?
Значения близкие к 0 означают, что предсказания модели хорошо совпадают с истинными метками.