Шта је варијација пристрасности у машинском учењу?



Овај чланак покрива концепт пристрасности и варијансе у машинском учењу са односом између њих који одређује предиктивну тачност модела.

У , учинак модела заснован је на његовим предвиђањима и на томе колико добро генерише према невиђеним, независним подацима. Један од начина за мерење тачности модела је вођење рачуна о пристрасности и варијанси у моделу. У овом чланку ћемо научити како пристрасност-варијанса игра важну улогу у одређивању аутентичности модела. У овом чланку се разматрају следеће теме:

Несводљива грешка

Било који модел у процењује се на основу грешке предвиђања на новом независном, невиђеном скупу података. Грешка није ништа друго до разлика између стварног и предвиђеног резултата. Да бисмо израчунали грешку, вршимо сумирање редуцибилне и несводиве грешке, а.к.а декомпозицијом пристрасности и варијансе.





Неповратна грешка није ништа друго до оне грешке које се не могу смањити без обзира на било коју које користите у моделу. Узроковане су необичним променљивим које имају директан утицај на излазну променљиву. Дакле, како бисмо ваш модел учинили ефикасним, остаје нам редуцирана грешка коју треба да оптимизујемо по сваку цену.

Смањива грешка има две компоненте - Предрасуде и варијансе , присуство пристрасности и варијансе утичу на тачност модела на неколико начина попут оверфиттинг, ундерфиттинг итд.Погледајмо пристрасност и одступање да бисмо разумели како се носити са смањеном грешком у .



Шта је пристрасност у машинском учењу?

Пристрасност је у основи колико смо предвидели вредност од стварне вредности. Кажемо да је пристрасност превисока ако су просечна предвиђања далеко од стварних вредности.

Висока пристрасност ће узроковати да алгоритам пропусти доминантни образац или однос између улазних и излазних променљивих. Када је пристрасност превисока, претпоставља се да је модел прилично једноставан и да не подразумијева сложеност скупа података да би се одредио однос и,узрокујући недовољно опремање.

Варијанса у моделу машинског учења?

На независном, невиђеном скупу података или скупу потврде. Када модел не ради тако добро као са обученим скупом података, постоји могућност да модел има одступања. У основи говори колико су предвиђене вредности раштркане од стварних вредности.



Велика варијанса у скупу података значи да је модел тренирао са пуно буке и небитних података. На тај начин узрокујући прекомерно уклапање у модел. Када модел има велику варијансу, постаје врло флексибилан и прави погрешна предвиђања за нове тачке података. Зато што се прилагодио тачкама података скупа тренинга.

Покушајмо такође математички да схватимо концепт пристрасности-варијансе. Нека променљива за коју предвиђамо да је И, а остале независне променљиве да буду Кс. Сада претпоставимо да постоји веза између две променљиве таква да:

И = ф (Кс) + е

У горњој једначини, овде је је процењена грешка са средњом вредношћу 0. Када направимо класификатор користећи алгоритме попут линеарна регресија , , итд., очекивана квадратна грешка у тачки к биће:

грешка (к) = пристрасност2+ Варијанса + несводива грешка

мвц пример примене у јави

Такође да схватимо како ће Биас-Варианце утицати на а Машинско учење перформансе модела.

за програм петље у јави

Како то утиче на модел машинског учења?

Однос између варијансе пристрасности можемо ставити у четири категорије наведене у наставку:

  1. Висока варијанса-велика пристрасност - Модел је недоследан и у просеку нетачан
  2. Ниска варијанса-велика пристрасност - модели су доследни, али у просеку ниски
  3. Висока варијансе-ниска пристрасност - донекле тачна, али недоследна у просеку
  4. Ниска варијанса-ниска пристрасност - Идеалан је сценарио, модел је у просеку доследан и тачан.

пристрасност-варијанса у машинском учењу-едурека

Иако је откривање пристрасности и варијансе у моделу сасвим евидентно. Модел са великом варијансом имаће малу грешку у тренингу и велику грешку валидације. А у случају велике пристрасности, модел ће имати велику грешку у тренингу, а грешка у валидацији је иста као и грешка у тренингу.

Иако се откривање чини лаким, стварни задатак је свести га на минимум. У том случају можемо учинити следеће:

  • Додајте још функција уноса
  • Више сложености увођењем полиномских карактеристика
  • Смањите термин регуларизације
  • Добијање више података о обуци

Сада када знамо шта је пристрасност и варијанса и како то утиче на наш модел, погледајмо компромис пристрасности и варијансе.

Компромис пристрасности и варијансе

Проналажење праве равнотеже између пристрасности и варијансе модела назива се биас-варианце компромис. То је у основи начин да се осигура да модел ни у ком случају није ни превише ни опремљен.

Ако је модел превише једноставан и има врло мало параметара, патиће од велике пристрасности и мале варијансе. С друге стране, ако модел има велики број параметара, имаће велику варијансу и малу пристрасност. Ова трговина би требала резултирати савршено уравнотеженим односом између њих двоје. У идеалном случају, ниска пристрасност и мала варијанса су мета за било који модел машинског учења.

Тотална грешка

У било којем моделу машинског учења, добра равнотежа између пристрасности и варијансе служи као савршен сценарио у погледу предиктивне тачности и избегавања прекомерне, недовољне опремљености. Оптимална равнотежа између пристрасности и варијансе, у смислу сложености алгоритма, обезбедиће да модел уопште никада није превише или недовољно опремљен.

Средња квадратна грешка у статистичком моделу сматра се збиром квадратне пристрасности и варијансе и варијансе грешке. Све ово може се ставити у укупну грешку тамо где имамо пристрасност, варијансу и несводиву грешку у моделу.

Дозволите нам да разумемо како можемо смањити укупну грешку уз помоћ практичне примене.

Створили смо а класификатор линеарне регресије у Линеарна регресија у машинском учењу чланак о Едуреки користећи низ података о дијабетесу у модулу скупова података сцикит научити библиотека.

како направити дубоку копију у јави

Када смо проценили средњу квадратну грешку класификатора, добили смо укупну грешку око 2500.

Да бисмо смањили укупну грешку, класификатору смо додали више података, а заузврат је средња квадратна грешка смањена на 2000.

То је једноставна примена смањења укупне грешке уношењем више података о обуци у модел. Слично томе, можемо применити друге технике за смањење грешке и одржавање равнотеже између пристрасности и варијансе за ефикасан модел машинског учења.

Ово нас доводи до краја овог чланка где смо научили Биас-Варианце у МахуУчење путем примене и примене. Надам се да вам је јасно све што је са вама подељено у овом упутству.

Ако сматрате да је овај чланак о „Биас-Варианце ин Мацхине Леарнинг“ релевантан, погледајте поуздана компанија за учење на мрежи са мрежом од више од 250.000 задовољних ученика раширених широм света.

Овде смо да вам помогнемо у сваком кораку на путовању и осмислимо курикулум који је дизајниран за студенте и професионалце који желе да буду . Курс је дизајниран да вам пружи почетну предност у Питхон програмирању и обучи вас за основне и напредне Питхон концепте, заједно са разним као , итд.

Ако наиђете на неко питање, слободно поставите сва своја питања у одељку за коментаре „Биас-Варианце ин Мацхине Леарнинг“ и наш тим ће вам радо одговорити.