Топ питань
Часова шкала
Чат
Перспективи
Похибка узагальнення
З Вікіпедії, вільної енциклопедії
Remove ads
У застосуваннях керованого навчання в машинному навчанні та теорії статистичного навчання, по́хибка узага́льнення (англ. generalization error, відома також як по́хибка за ме́жами ви́бірки, англ. out-of-sample error[1]) — це міра того, наскільки точно алгоритм здатен передбачувати значення виходів для не бачених раніше даних. Оскільки навчальні алгоритми обчислюються на скінченних вибірках, обчислення навчальних алгоритмів може бути чутливим до похибки вибірки[en]. В результаті, вимірювання похибки передбачування на поточних даних може не давати достатньо інформації про передбачувальну здатність на даних нових. Похибку узагальнення може бути мінімізовано униканням перенавчання в навчальних алгоритмах. Продуктивність алгоритму машинного навчання вимірюється шляхом відкладання на графіку значень похибки узагальнення протягом процесу навчання, що називається кривими навчання.
Remove ads
Визначення
Узагальнити
Перспектива
В задачі навчання метою є розробка функції , яка передбачує вихідні значення на основі деяких вхідних даних . Очікуваною похибкою певної функції над усіма можливими значеннями та є
де позначає функцію втрат, а є невідомим спільним розподілом імовірності для та .
Не знаючи цей спільний розподіл імовірності, неможливо обчислити . Натомість, ми можемо обчислювати емпіричну похибку на даних вибірки. Для заданих точок даних емпіричною похибкою є
Похибка узагальнення є різницею між очікуваною та емпіричною похибками. Вона є різницею між похибкою на тренувальному наборі, та похибкою на розподілі ймовірності, що лежить в основі. Вона визначається як
Про алгоритм кажуть, що він узагальнюється, якщо
Оскільки для невідомого розподілу ймовірності обчислено бути не може, то не може бути обчислено й похибку узагальнення. Натомість, метою багатьох задач у теорії статистичного навчання є обмежити або схарактеризувати похибку узагальнення в імовірності:
Тобто, метою є схарактеризувати ймовірність того, що похибка узагальнення є меншою за деяку межу похибки (відому як темп навчання, англ. learning rate, і в цілому залежну від та ).
Remove ads
Стосунок до стійкості
Узагальнити
Перспектива
Для багатьох типів алгоритмів було показано, що алгоритм має межі узагальнення, якщо він відповідає певним критеріям стійкості[en]. Зокрема, якщо алгоритм є симетричним (послідовність входів не впливає на результат), має обмежені втрати та відповідає двом умовам стійкості, то він узагальнюватиметься. Перша умова стійкості, стійкість перехресного затверджування з виключенням по одному (англ. leave-one-out cross-validation stability), каже, що для стійкості похибка передбачення для кожної точки даних при застосуванні перехресного затверджування з виключенням по одному мусить збігатися до нуля при . Друга умова, стійкість похибки очікування до виключення по одному (англ. expected-to-leave-one-out error stability, відома також як стійкість гіпотези при дії в нормі ), виконується тоді, коли передбачення для не включеної точки не змінюється при усуненні однієї точки з тренувального набору.[2]
Ці умови може бути формалізовано наступним чином:
Стійкість перехресного затверджування з виключенням по одному
Алгоритм має стійкість , якщо для кожного існують такі та , що
і та прямують до нуля при прямуванні до нескінченності.[2]
Стійкість похибки очікування до виключення по одному
Алгоритм має стійкість , якщо для кожного існують такі та , що
де та прямують до нуля при .
Для стійкості виключення по одному в нормі це є тим самим, що й стійкість гіпотези
де прямує до нуля при прямуванні до нескінченності.[2]
Алгоритми з доведеною стійкістю
Стосовно ряду алгоритмів було доведено, що вони є стійкими, і, в результаті, мають межі на своїх похибках узагальнення. Перелік цих алгоритмів та праць, що довели стійкість, є тут[en].
Remove ads
Стосунок до перенавчання
Узагальнити
Перспектива

Поняття похибки узагальнення та перенавчання тісно пов'язані. Перенавчання стається тоді, коли навчена функція стає чутливою до шуму в вибірці. В результаті ця функція працюватиме добре на тренувальному наборі, але не працюватиме добре на інших даних зі спільного розподілу ймовірності та . Таким чином, що більше перенавчання стається, то більшою є похибка узагальнення.
Величину перенавчання може бути перевірено застосуванням методів перехресного затверджування, які розділюють вибірку на імітовані тренувальні та випробувальні вибірки. Потім модель тренують на тренувальній вибірці, й оцінюють на випробувальній. Випробувальна вибірка є не баченою алгоритмом заздалегідь, і тому являє собою випадкову вибірку зі спільного розподілу ймовірності та . Ця випробувальна вибірка дозволяє отримувати наближення очікуваної похибки, і, як результат, отримувати наближення конкретного вигляду похибки узагальнення.
Існує багато алгоритмів для запобігання перенавчанню. Алгоритм мінімізації може штрафувати складніші функції (він відомий як регуляризація Тихонова), або простір гіпотез може бути обмежено, або явно виглядом функцій, або додаванням обмежень до функції мінімізації (регуляризація Іванова).
Підхід, що полягає в пошуку функції, яка не перенавчається, суперечить меті пошуку функції, яка є достатньо складною, щоби схоплювати особливі характеристики даних. Це відоме як компроміс зсуву та дисперсії. Збереження функції простою для запобігання перенавчанню може вносити зсув в отримувані в результаті передбачування, в той час як надання їй можливості ставати складнішою веде до перенавчання й вищої дисперсії в передбаченнях. Мінімізовувати й те, і друге одночасно — неможливо.
Remove ads
Примітки
Література
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads