Tsoof Bar Or 📟💥 Profile picture
May 16, 2023 17 tweets 8 min read Read on X
התגלית ששברה את עולם הבינה המלאכותית (והסטטיסטיקה) התרחשה ב..
2018?
כן. בערך 5 שנים.
היום נדבר על התופעה המוזרה המכונה Double Descent, שהותירה את גדולי המדענים פעורי פה.
קחו אוויר, ובואו איתי להבין מה קרה שם, כמובן ללא צורך בידע קודם 🧵
#פידטק #פידאטה #בינה_מלאכותית
>> Image
1. נתחיל בלדבר על מודל ה"בינה המלאכותית" החשוב ביותר שידוע לאנושות: הממוצע.
כן. הממוצע.
מה אנחנו מנסים להשיג בבינה מלאכותית?
במשפט, למזער את שגיאות המודל בביצוע משימה כלשהי. אם המשימה היא לחזות גבהים של סטודנטים, המודל הכי פשוט שיתן את השגיאה הנמוכה ביותר הוא הממוצע. >> Image
2. הממוצע מזקק בתוכו אינפורמציה על כל הקבוצה בפרמטר יחיד. הוא לא לומד את גבהי הקבוצה בע"פ, נכון? נכון, מלבד מקרה אחד.
מה הוא?
טוב, זה קל - כשיש חבר אחד בקבוצה.
הממוצע "למד בעל פה" את המידע שעליו הוא התאמן. אין הכללה, רק שינון. >>
3. האנלוגיה הנחמדה הזו עובדת גם כשהמודל כולל יותר פרמטרים.
מודל רגרסיה פשוט, y=mx+n, כולל שני פרמטרים – m וn. אם ניתן לו רק 2 תצפיות – בינהן עובר קו ישר אחד, הוא ילמד אותן בעל פה.
מזהים את הדפוס?
הבעיה עם הכללה היא כזו: ככל שהמודל יותר מסובך, בעל יותר "חלקים זזים" >> Image
4. כלומר פרמטרים, יש יותר סיכוי שהוא ילמד בע"פ את המידע שעליו הוא התאמן ולא יכליל.
וזה אומר שכשנציג לו דוגמאות חדשות – הוא יכשל.
לא משנה אם הוא רגרסיה או חיזוי מזג אוויר או מודל שפה.
העקרון הסטטיסטי הזה ליווה אותנו במשך עשורים.
מודלים מורכבים נוטים "להסביר יותר מידי" וכושלים. >>
5. אפשר לראות את זה בגרף (1) חשוב! לא לדלג.
לוקחים שני סטים של נתונים, אחד לאימון ואחד לבחינה. מאמנים מודל מורכב על סט האימון – נכשל במבחן.
מאמנים מודל פשוט יותר – לא נכשל במבחן.
דוגמא קלילה של רגרסיה בתמונה (2). מה לדעתכן מתאר יותר טוב את המציאות? ברור שהמודל הפשוט. >> ImageImage
6. עד כאן טוב ויפה. שנים על גבי שנים זאת הייתה הקונספציה. גדול זה רע, פשוט זה טוב!
מה קרה ב2018?
סדרת ניסויים הראתה דבר מדהים – אם ממשיכים את הגרף (1) שבציוץ הקודם עוד ימינה, פתאום יש נפילה סופר חדה.
המודל הגרוע, המדקלם כמו תוכי – פתאום לומד.
ויותר טוב מהמודלים הפשוטים. >>
7. מה? מה קורה כאן?
המודל משתפר.. משתפר.. משתפר.. הופ פתאום משנן ונהיה גרוע.. גרוע יותר.. גרוע יותר... הופ משהו קורה המודל סופר חכם!
מה?!
כן. דמיינו מה עבר בראש של החוקרים שהם התחילו לראות תוצאות כאלה.
זה קצת כמו לגלות שבמהירויות גבוהות חוקי הפיזיקה פתאום עובדים אחרת.. >> Image
8. בהינתן העובדה המוזרה הזו, בואו נדבר על רשתות נוירונים.
לרשתות נוירונים מיליארדי פרמטרים.
מיליארדים.
היינו מצפים שהן יהיו ממש גרועות בהכללה – אבל זה לא המצב.
הן נפלאות, למרות שלפעמים יש בהן הרבה יותר חלקים זזים מאשר דוגמאות אימון. >> Image
9. דמיינו שהיינו יכולים לתת לקו רגרסיה 2 נקודות והוא היה מצליח להבין מהן את התופעה במלואה, עם טעות מנימאלית.
זה נוגד את האינטואציה בכל צורה.
רשתות נוירונים עצומות, הרבה יותר עצומות מכל בסיס הנתונים – לא לומדות אותו בע"פ ומצליחות להכליל.
למה?
לא לגמרי יודעים, אבל הנה השערות >>
10. כשהמודל לומד בעל פה את כל הדוגמאות שהוא מקבל, ולא משנה אם זה מודל שפה שלומדים מילים, מודל שלומד לסווג תמונות או כל מודל אחר, הוא עדיין צריך למלא "חללים" שנמצאים בין הדוגמאות שאנחנו נותנים לו.

אם אימנתי מודל רגרסיה על המספרים 1,2,4,5 – הוא יצטרך לנחש מה התוצאה של 3. >> Image
11. מודל מסובך שלומד בע"פ את בסיס הנתונים, נוטה "לחבר" את הנקודות בצורה מאד גסה.
הוא מנצל את כל הפרמטרים שלו כדי לשנן, ולא מחבר את הנקודות בצורה חסכונית - זאת הדרך הכי קלה להגיע לשגיאה 0.
זאת סיבה עיקרית לביצועים הגרועים בחיזוי על דברים שהוא לא ראה לפני. >>
12. אומרים שמודלים סופר מסובכים (בניגוד לסתם מסובכים) עושים את החיבור הזה (בין הנקודות) יותר טוב, ולמרות שהם לומדים את הנתונים בע"פ הם עדיין מצליחים לבצע הכללה.
הסבר נוסף הוא שכשלמודל יש המון פרמטרים, יש לו המון דרכים להגיע לשגיאה 0 על סט האימון.
זה מביא לזה שבעצם המודל יהיה >> Image
13. רגיש פחות לשינויים לעומת מודל גדול שמשתמש בכל הפרמטרים שלו כדי ללמוד את כל הדאטה.
הסברים מעפנים, אני יודע, אבל זה רוב מה שיש לנו.
כמובן שזה ממש על קצה המזלג.
חשוב להגיד שהתופעה הזו לא בהכרח מתרחשת בכל בעית ML.
אנחנו פשוט לא ממש יודעים עליה הרבה, והיא בחזית המחקר.
14. הדבר ההזוי כאן הוא שכמו שהזכרתי, יש כאן קצת ניוטון-איינשטיין.
החוקים של ניוטון עבדו עד רגע מסויים, ואז במצבי קיצון נשברו.
גם כאן המודלים שלנו גדלו למימדי ענק וגילינו שכל הבסיס שלנו לא מדויק.
דברים עצומים מתנהגים אחרת, לא רק בפיזיקה. >>
15. אם תשאלו אותי, זה פשוט מרתק.
אנחנו עדים לתקומה של תחום של במדע, וזה פאקינג מרגש.
אם מישהו מכם יודע לתת עוד איזה אינפוט על התופעה הזו - אשמח לשמוע.
נתראה בשרשור הבא :)
מקורות!
המאמר המקורי מ2018:
arxiv.org/abs/1812.11118
אינפוגרפיקה יפה על הנושא:
mlu-explain.github.io/double-descent/

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Tsoof Bar Or 📟💥

Tsoof Bar Or 📟💥 Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @tsoofbaror

Sep 13
הכוח של GPT o1, סדרת המודלים החדשה של OpenAI.
המודלים האלה, שכונו פנימית Strawberry, אמורים להיות מודלים שמתמחים ב-Reasoning.
אבל איך בודקים דבר כזה?
איך נראה Reasoning?
אנסה לתת פה כיוון לאיך אני רואה את זה, ולמה אני חושב שהמודלים האלה הם אולי תחילת הדרך למהפכה 🧵>> Image
1. אני מפרש הפעולה הזו שנקראת Reasoning כיכולת שלנו לקחת בעיה ולהבין איזה ידע מקדים צריך לבנות על מנת לפתור אותה, לאסוף את הידע המקדים ורק אז להגיע לתשובה.
בשאלה המפורסמת ״כמה פעמים האות r מופיע במילה Strawberry״ רוב המודלים טועים בין היתר, גם בגלל זה.
בגלל שהתשובה שלהם >> Image
2. היא הסתברותית נטו, אין להם את תהליך ה״בניה״ של הידע כדי לענות: פירוק המילה לאותיות שלה קודם כל, ורק אז ספירה של כל האותיות, אחת אחת.
את זה בדיוק o1 מנסה לפתור. בשיטת אימון שOpenAI לא חושפים, המודל לא ״עונה״, הוא קודם כל מבסס את כל פרטי הידע הנחוצים, מנתח אותם ורק אז מרכיב >>
Read 16 tweets
May 28
טוויטר יקר - עזרו לנו להקים בית לפראמדיקים בצה״ל.
(אמ;לק: הקמנו עמותה ואנחנו מגייסים).
הפעם אני הולך לספר לכם על התפקיד שלי בסדיר ובמילואים, ועל המסע לתת לאנשים כמוני בית, ליווי וקהילה.
בבקשה - שתפו את הפוסט ועזרו לנו להגיע ליעד.
תנו לי דקה להכיר לכם אותנו 🧵 >> Image
1. נתחיל בהתחלה, הנה הלינק לתרומה לעמותה (רשומה ומוכרת לצורכי מס כמובן).

ואחרי ששמנו אותו כאן, נדבר על פראמדיקים בצבא >>jgive.com/new/he/ils/don…
2. פראמדיק וחובש זה לא אותו דבר.
חובש קרבי הוא לוחם. הם עוברים מסלול, יוצאים ל3 חודשים קורס חובשים בבה״ד 10 וחוזרים ליחידות.
הפראמדיקים הם יצורים אחרים לגמרי. התפקיד הומצא עקב מחסור - מחסור ברופאים.
פעם על אמבולנס היו רופא ואחות.
אבל מה לרופא שיודע לקרוא רטנגן ובדיקות דם >> Image
Read 13 tweets
Mar 27
רק מוודא שאתם מעודכנים במה שקורה:
קלוד בדרך להביס את GPT בקרב המפתחים.
אתם אולי משתמשים בChatGPT (או קלוד) דרך ממשק אינטרנטי, אבל מאחורי הקלעים יש שוק פעיל מאד של מוצרים שמשתמשים במודלים האלה.
סקירה קצרצרה 🧵>> Image
1. סיכום טקסט, מענה אוטומטי ואפילו שירות לקוחות - יש המון מוצרים שנבנים סביב מודלי שפה.
עד כה, 90% מהם היו או מבוססי OpenAI, או מבוססים על מודלים פתוחים כמו Llama/Mistral.
מה שקרה הוא שOpenAI נתנו באופן כמעט בלעדי דרך קלה להחריד לגשת למודלים שלהם דרך קוד.
תראו בתמונה. >> Image
2. עשר שורות בקושי ואפשר לגשת למודל AI אימתני.
על בסיס זה נבנו עשרות אם לא מאות סטארטאפים שמנסים להפיק ערך ממכונת המילים הזו.
כמו שאמרתי, עד כה OpenAI שלטו בשוק הזה באופן כמעט בלעדי.
המודלים האחרים היו סוג של "התפשרות" למי שרוצה לעשות איזה אימון יחודי בעצמו. ממש לא הסטנדרט >>
Read 10 tweets
Mar 22
על תקרת הזכוכית של מהפכת הGenAI הנוכחית.
האם אנחנו רגע מGPT7 שיקנה בשבילנו מניות בבורסה וSORA שתחליף את הוליווד?
כנראה שלא. ממש לא.
תוהים איך יראה העתיד?
קחו אוויר, שימו בBookmark אם צריך - שרשור ארוך, אבל אחד שאסור לפספס 🧵 >> Image
1. ההתקדמות בAI מסחררת. ליטרלי מסחררת.
הסחרור מתודלק ע״י כל סלבס הAI על הפלנטה. יש לזה שתי סיבות עיקריות, ואף אחת מהן היא לא וודאות לגבי העתיד:
הבאזז מאפשר לגייס הרבה מאד כסף,
והאנשים האלה באמת באמת *רוצים* להצליח, מחשבה-מייצרת-מציאות.
השאלה: הם המציאות מתכתבת עם הבאזז? >>


Image
Image
Image
Image
2. בשרשור הזה אני רוצה לנסות לצמצם את הסחרור, ולנסות לחשוב ריאלית איך העתיד הולך להראות.
רשימת עובדות 1#:
גם למשתמשים משלמים, יש עדיין מגבלה של עד 50 הודעות כל 3 שעות
על GPT4. שנה אחרי שהוא שוחרר.
לקלוד - Opus החדש, גם במנוי PRO, יש מגבלה של 100 הודעות ב8 שעות במקרה הטוב. >> Image
Read 24 tweets
Jan 30
בשקט בשקט, אילון זרק פצצה הלילה.
השבב המוחי הראשון הושתל באדם בריא, שבב חיבור בין הטכנולוגיה למוח.
האפליקציה הראשונה לשבב, איך לקרוא, תיקרא ״טלפתיה״ (Telepahy) ותיועד לאנשים שאיבדו את היכולת להזיז את הגפיים.
לאט לאט, הכל מתחבר >> Image
המונח המטורף כאן הוא הBrain Interface.
האמת, זה ממש אינטואיטיבי. הדרך שלנו לתקשר עם הטכנולוגיה היא דרך מתווך. יותר נכון מתווכות - הידיים והאצבעות שלנו.
המוח שולח שדר אליהן, הן מעבירות את השדר למכשיר שבתורו מחזיר שדר שנקלט בעיניים או באוזניים שלנו - וחזרה למוח.
המשימה של >>
ֿֿ Image
ניורולינק היא החלום הרטוב של כל קונספירטור מצוי.
השתלת שבב במוח שיחסוך את המתווכות, ויאפשר לנו לתקשר עם הטכנולוגיה שלנו בכוח המחשבה.
נשמע בדיוני, אבל על פניו - הסיגנל 100% נמצא שם במוח.
מה שצריך הוא לחלץ אותו ולהשתמש בו, ״זה הכל״.
שבב. ממש שבב. >> Image
Read 7 tweets
Jan 24
שמעתם על גאדג׳ט הAI החדש?
גם אני.
הרמתם גבה?
גם אני.
אז באיחור של שבועיים, בואו נדבר רגע על הדבר הזה.
קשקוש, או העתיד? 🧵>>
(אה כן, אם שמתם Bookmark - תוסיפו איזו הקלקת לייק, זה סופר עוזר לי 🥰) Image
1. נתחיל בטכני.
מדובר על מכשיר קטן בעלות 199$ שמתפקד קצת כמו אלכסה, סירי או גוגל אסיסטנט.
המסך הוא מסך מגע, יש בו גם סוג של גלגלת אנלוגית ומצלמה 360 מעלות נשלפת כדי שהטמגוצ׳י הזה יוכל גם לראות את העולם.
למכשיר קוראים r1, או בשמו המלא כולל החברה שמייצרת אותו: rabbit r1 >> Image
2. הרעיון, אם לא ראיתם את הדמו הארוך, הוא שכל התקשורת איתו מילולית.
״תזמין לי אובר למחר״, ״תמצא לי חופשה, רכב ומלון בלונדון במרץ״.
הוא ישלח ״ארנב״ לרשת, יחפש, יזמין ויתן לכם לאשר.
הוא יתפקד גם כChatGPT קולי, תשאלו שאלה, הוא יענה.
זמן המענה קצר להחריד. הם מדברים על פחות מחצי >>
Read 24 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us!

:(