My Authors
Read all threads
Machine Learning - VIII
- Seshadhiri Dhanasekaran

இன்னிக்கு நாம Bias (சார்பு) மற்றும் Variance ( மாறுபாடு) குறித்து விரிவாக பாப்போம்.

#MachineLearningTamil
#Thread
#MachineLearning
Supervised Learningல ஒரு algorithm டேட்டாவில் இருந்து அது எப்படி உருவானது என்பதை கற்று கொள்ள உதவுகிறது . இந்த கற்று கொள்ளும் போது Prediction Errors வரும். இதுல 3 types ஆப் error இருக்கு.

1. Bias Error
2. Variance Error
3. Irreducible Error
இதுல Irreducible Error என்பது சரி செய்ய இயலாதது. அதாவது அந்த கேள்வி/problemக்கு இந்த algorithm செட் ஆகலன்னு அர்த்தம் இல்லனா சரியா variables assume பண்ணாத காரணத்தால் ஏற்படுவது.
1. Bias Error

Bias என்பது algorithm தன்னுடைய Yயை குறித்து assumption (அனுமானம் ) செய்து கொள்வது. அதாவது Y இப்படி தான் இருக்கும் என்று ஒரு அனுமானுத்துடன் செல்வது .
உதா. இன்னிக்கு traffic அதிகமா இருக்கும்ன்னு நாம சீக்கிரம் கிளம்புவது ஒரு Bias. இதுல ரெண்டு type இருக்கு.Bias are the simplifying assumptions made by a model to make the target function easier to learn.
Low - Bias - output குறித்து அதாவது y - குறித்து குறைவான அனுமானம் கொள்ளுதல்.

High - Bias - Output குறித்து அதிகமான அனுமானம் கொள்ளுதல்.
Decision Trees, k-Nearest Neighbors and Support Vector Machines எல்லாம் Low- Bias மாடல்கள்.

Linear Regression, Linear Discriminant Analysis and Logistic Regression எல்லாம் High-Bias மாடல்கள்.
2. Variance Error

Variance என்பது மாறுபட்ட Training டேட்டா பயன்படுத்தப்பட்டால் Target Function (Y) மதிப்பீடு மாறும் அளவு மட்டுமே.Variance is the amount that the estimate of the target function will change if different training data was used.
நாம் ஒரு குறிப்பிட்ட training டேட்டா கொண்டு training செய்த பின், வேறு ஒரு டேட்டாவை உபயோகித்தால் Y அளவு மாறுபடும் . இதை தான் நாம் Variance Error என்கிறோம்.
இதில் 2 விதமான type இருக்கு.

Low - Variance - Training டேட்டாவில் மாற்றங்களுடன் Y மதிப்பீட்டில் சிறிய மாற்றங்களை பரிந்துரைக்கிறது.

High - Variance - Training டேட்டாவில் மாற்றங்களுடன் Y மதிப்பீட்டில் அதிக மாற்றங்களை பரிந்துரைக்கிறது.
Linear Regression, Linear Discriminant Analysis and Logistic Regression எல்லாம் லோ Variance மாடல்கள்.

Decision Trees, k-Nearest Neighbors and Support Vector Machines எல்லாம் high-variance மாடல்கள்.
முக்கியமான Bias - Variance விகிதாச்சாரம் குறித்து பார்ப்போம்.

இந்த Biasயும் , Varianceயும் ஆப்போசிட் relation (அ) நெகடிவ் Correlation உறவை கொண்டது.
அதாவது Bias அதிகமானால் Variance குறையும். Variance அதிகமானால் Bias குறையும்.
இதில் குறிப்பிட வேண்டிய விஷயம் என்னவென்றால் லீனியர் மாடல்கள் அதிக Bias குறைவான Variance கொண்டிருக்கும்.

நான்-லீனியர் மாடல்கள் அனைத்தும் குறைந்த Bias மற்றும் அதிக Variance கொண்டிருக்கும்.

இந்த terminologies கொண்டு தான் underfitting , overfitting வரையறுக்கப்படுகிறது.
ஒரு algorithm சரியாய் பொருந்துகிறதா இல்லையா என்பதை fit கொண்டு வரையறுக்கப்படுகிறது.

Underfitting - training டேட்டாவை கொண்டு algorithm சரியாக fit ஆகாத போது. அதாவது ட்ரைனிங்லேயே சரியாய் கத்துக்காம இருந்தால் இது அது underfitting.
Correct fit - Training டேட்டாவில் சரியாய் கத்துக்கிட்டு , டெஸ்டிங்லயும் சரியாய் செய்தால் அது கரெக்ட் பிட்டிங்.
Overfitting-
Overfitting என்பது ட்ரைனிங்லேயே ஓவரா ட்ரெயின் ஆகி டெஸ்டிங் டேட்டாவிற்கு ஏற்ற மாதிரி மாத்திக்க முடியாமல் சொதப்புவது. ட்ரைனிங்ல சுட சொல்லி கொடுக்கும்போது object ஸ்டெடியாருக்கும். ஆனா பீல்ட்ல object move ஆகும். ஆனா நான் ஸ்டெடியா இருந்தா தான் சுடுவேன்ன்னு சொல்லுற மாதிரி
ஒரு பவுல் எடுத்து கொள்ளுங்கள். அதில் பவுலின் அடிப்பகுதி கரெக்ட் பிட்டிங். இடது underfitting , வலது overfitting. எந்த பொருளை போட்டாலும் அது இடது பக்கத்தில் அடிப்பக்கம் சென்று அடைவது போல் underfittingல இருந்து correct fitting செல்லும்.
இதுல high bias, low variance என்றால் அது Underfitting.

High Variance, Low Bias என்றால் அது Overfitting.

பின்வரும் வரைபடங்களில் இதை பாருங்க, சரி இதை சரி செய்ய என்ன வழி என்றால் இரண்டு வழி.
இதில் overfittingயை மட்டுமே சரி செய்ய
1. சரியாக re-sampling செய்து திரும்பவும் model accuracy கணக்கிடுதல்.

2. ஒரு validation செட் டேட்டாவை hold back செய்வது.
underfittingயை சரி செய்ய

1. டேட்டாவை அதிகரிக்கலாம்.

2. ட்ரைனிங் time அதிகரித்தல்.

3. மாடலின் காம்ப்ளெக்ஸிட்டியை அதிகரிக்கலாம்.
#EndofPartVIII
Missing some Tweet in this thread? You can try to force a refresh.

Enjoying this thread?

Keep Current with PhD Jokes & Memes

Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

Twitter may remove this content at anytime, convert it as a PDF, save and print for later use!

Try unrolling a thread yourself!

how to unroll video

1) Follow Thread Reader App on Twitter so you can easily mention us!

2) Go to a Twitter thread (series of Tweets by the same owner) and mention us with a keyword "unroll" @threadreaderapp unroll

You can practice here first or read more on our help page!

Follow Us on Twitter!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just three indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3.00/month or $30.00/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!