Како применити линеарну регресију за машинско учење?



Овај чланак покрива концепт линеарне регресије за машинско учење са различитим терминологијама и случај употребе за примену линеарне регресије.

Фокус на врти се око улазних и излазних променљивих помоћу алгоритма за предвиђање исхода. Ако нова улазна променљива дође на слику. Алгоритам линеарне регресије у је надгледана техника учења за приближавање функције мапирања за добијање најбољих предвиђања. У овом чланку ћемо научити о линеарној регресији за машинско учење. На овом блогу се расправља о следећим темама.

Шта је регресија?

Главни циљ регресије је изградња ефикасног модела за предвиђање зависних атрибута из гомиле променљивих атрибута. Проблем регресије је када је излазна променљива реална или континуирана вредност, тј. Плата, тежина, површина итд.





Регресију такође можемо дефинисати као статистичко средство које се користи у апликацијама попут становања, инвестирања итд. Користи се за предвиђање односа између зависне променљиве и гомиле независних променљивих. Погледајмо разне врсте техника регресије.

пример-линеарна регресија у машинском учењу - едурека

Врсте регресије

Следе врсте регресије.



  1. Једноставна линеарна регресија
  2. Полиномска регресија
  3. Подршка векторској регресији
  4. Регресија стабла одлука
  5. Случајна регресија шуме

Једноставна линеарна регресија

Једна од најзанимљивијих и најчешћих техника регресије је једноставна линеарна регресија. У овоме предвиђамо исход зависне променљиве на основу независних променљивих, однос између променљивих је линеаран. Отуда и реч линеарна регресија.

Полиномска регресија

У овој техници регресије трансформишемо оригиналне особине у полиномске одлике датог степена, а затим вршимо регресију на њој.

Подршка векторској регресији

За регресије или СВР, идентификујемо хиперплан са максималном маргином тако да је максималан број тачака података унутар тих маргина. Прилично је сличан алгоритму за класификацију машина вектора подршке.



Регресија стабла одлука

ДО може се користити и за регресију и . У случају регресије, користимо ИД3 алгоритам (Итеративе Дицхотомисер 3) да бисмо идентификовали чвор за цепање смањењем стандардне девијације.

Случајна регресија шуме

У случајној регресији шума састављамо предвиђања неколико регресија стабла одлучивања. Сада када знамо о различитим врстама регресије, погледајмо детаљно једноставну линеарну регресију.

Шта је линеарна регресија?

Једноставна линеарна регресија је техника регресије у којој независна променљива има линеарни однос са зависном променљивом. Права линија на дијаграму је најбоља линија. Главни циљ једноставне линеарне регресије је да се узму у обзир дате тачке података и да се исцрта најбоља линија која одговара моделу на најбољи могући начин.

променљива инстанце у примеру Јава

Пре него што пређемо на то како функционише алгоритам линеарне регресије, погледајмо неколико важних терминологија у једноставној линеарној регресији.

Терминологије линеарне регресије

Следеће терминологије је важно упознати пре преласка на алгоритам линеарне регресије.

Функција трошкова

Линија која најбоље одговара може се заснивати на линеарној једначини датој у наставку.

  • Зависна променљива коју треба предвидети означена је са И.
  • Права која додирује осу и означена је пресјеком б0.
  • бједанје нагиб линије, к представља независне променљиве које одређују предвиђање И.
  • Грешка у резултујућем предвиђању означена је са е.

Функција трошкова пружа најбоље могуће вредности за б0и бједанкако би се тачка података најбоље уклопила. То радимо претварањем овог проблема у проблем минимизације да бисмо добили најбоље вредности за б0и бједан. У овом проблему грешка је смањена између стварне вредности и предвиђене вредности.

Бирамо горњу функцију како бисмо грешку свели на минимум. Разлику грешке квадратујемо и грешку збрајамо по свим тачкама података, подели између укупног броја тачака података. Затим, произведена вредност даје просечну квадратну грешку у свим тачкама података.

Такође је познат и као МСЕ (средња квадратна грешка), а мењамо вредности б0и бједантако да се вредност МСЕ поравна на минимуму.

Градиент Десцент

Следећа важна терминологија за разумевање линеарне регресије је градијентни спуст. То је метода ажурирања б0и бједанвредности за смањење МСЕ. Идеја која стоји иза тога је да се понавља и даље б0и бједанвредности док МСЕ не смањимо на минимум.

Ажурирати б0и бједан, узимамо градијенте из функције трошкова. Да бисмо пронашли ове градијенте, узећемо делимичне изводе у односу на б0и бједан. Ови делимични изводи су градијенти и користе се за ажурирање вредности б0и бједан.

Мања стопа учења приближава се минимуму, али потребно је више времена и у случају веће стопе учења. Потребно време је пре, али постоји шанса да се пређе минималну вредност. Сада када смо завршили са терминологијама у линеарној регресији, погледајмо неколико предности и недостатака линеарне регресије за машинско учење.

Предности и мане

Предности Мане
Линеарна регресија делује изузетно добро за линеарно одвојиве податкеПретпоставка линеарности између зависних и независних променљивих
Једноставније за примену, тумачење и ефикасно за обукуЧесто је прилично склон буци и прекомерном опремању
Прилично добро се носи са прекомерном опремом користећи технике редукције димензија, регуларизацију и унакрсну валидацијуЛинеарна регресија је прилично осетљива на изванредне вредности
Још једна предност је екстраполација изван одређеног скупа податакаСклона је мултиколинеарности

Случајеви употребе линеарне регресије

  • Предвиђање продаје

  • Анализа ризика

  • Апликације становања за предвиђање цена и других фактора

    дб претраживач за склите туториал
  • Апликације за финансије за предвиђање цена акција, процену инвестиција итд.

Основна идеја линеарне регресије је проналажење односа између зависних и независних променљивих. Користи се за добијање најбоље прикладне линије која би предвидела исход са најмање грешке. Линеарну регресију можемо користити у једноставним ситуацијама из стварног живота, попут предвиђања САТ резултата у односу на број сати учења и друге пресудне факторе.

Имајући ово на уму, погледајмо случај употребе.

Случај употребе - Примена линеарне регресије

Процес се одвија у следећим корацима:

  1. Учитавање података
  2. Истраживање података
  3. Резање података
  4. Подаци о возу и раздвајању
  5. Генериши модел
  6. Процените тачност

Уђимо у детаље сваког од корака за примену линеарне регресије.

1. Учитавање података

Можемо започети са основним скупом података о дијабетесу који је већ присутан у модулу скуларн скуарн (сцикит-леарн) скупова података да бисмо започели своје путовање линеарном регресијом.

из склеарн увоза скупова података болест = скупови података.лоад_диабетес () испис (болест)

Излаз:

2. Истраживање података

Након што завршимо са учитавањем података, можемо започети истраживање једноставном провером налепница помоћу следећег кода.

принт (дисеасе.кеис ())

Излаз:

Горњи код даје све ознаке из скупа података, након тога можемо да пресечемо податке како бисмо на крају могли да нацртамо линију. Такође ћемо користити све тачке података, за сада ћемо пресећи колону 2 из података.

увоз нумпи као нп болест_Кс = болест.дата [:, нп.невакис, 2] испис (болест_Кс)

Излаз:

Након овог корака податке ћемо поделити на влак и тест сет.

3. Раздвајање података

болест_Кс_траин = болест_Кс [: - 30] болест_Кс_тест = болест_Кс [-20:] болест_И_траин = болест.циљ [: - 30] болест_И_тест = болест.циљ [-20:]

Следећи део укључује генерисање модела, који ће укључивати увоз линеар_модел из склеарн.

4. Генерисање модела

из склеарн импорт линеар_модел рег = линеар_модел.ЛинеарРегрессион () рег.фит (болест_Кс_траин, болест_И_траин) и_предицт = рег.предицт (болест_Кс_тест)

Да бисмо проценили тачност модела, користићемо средњу квадратну грешку из сцикит-леарн.

5. Процена

тачност = средња_квадратура_грешке (болест_И_тест, и_предицт,) испис (тачност) тежине = рег.цоеф_ интерцепт = рег.интерцепт_ принт (тежине, пресретање)

Излаз:

Да бисмо били јаснији како тачке података изгледају на графикону, направимо и графиконе.

увоз матплотлиб.пиплот као плт плт.сцаттер (болест_Кс_тест, болест_И_тест) плт.плот (болест_Кс_тест, и_предицт) плт.схов ()

Излаз:

Да бисмо добили прецизнији модел у овом сценарију, можемо користити целокупне податке уместо само колоне 2. То би дало тачност као што је приказано у наставку:

# мало измените горњи код и уклоните код за цртање да бисте избегли грешке дисеасе_Кс = дисеасе.дата

Излаз:

Ово нас доводи до краја овог чланка где смо сазнали о Линеарној регресији за машинско учење. Надам се да вам је јасно све што је са вама подељено у овом упутству.

Ако сматрате да је овај чланак о „Линеарној регресији за машинско учење“ релевантан, погледајте поуздана компанија за учење на мрежи са мрежом од више од 250.000 задовољних ученика раширених широм света.

како скенирати знак у јави

Ако наиђете на неко питање, слободно поставите сва питања у одељку за коментаре „Линеарна регресија за машинско учење“ и наш тим ће вам радо одговорити.