התגלית ששברה את עולם הבינה המלאכותית (והסטטיסטיקה) התרחשה ב..
2018?
כן. בערך 5 שנים.
היום נדבר על התופעה המוזרה המכונה Double Descent, שהותירה את גדולי המדענים פעורי פה.
קחו אוויר, ובואו איתי להבין מה קרה שם, כמובן ללא צורך בידע קודם 🧵 #פידטק#פידאטה#בינה_מלאכותית
>>
1. נתחיל בלדבר על מודל ה"בינה המלאכותית" החשוב ביותר שידוע לאנושות: הממוצע.
כן. הממוצע.
מה אנחנו מנסים להשיג בבינה מלאכותית?
במשפט, למזער את שגיאות המודל בביצוע משימה כלשהי. אם המשימה היא לחזות גבהים של סטודנטים, המודל הכי פשוט שיתן את השגיאה הנמוכה ביותר הוא הממוצע. >>
2. הממוצע מזקק בתוכו אינפורמציה על כל הקבוצה בפרמטר יחיד. הוא לא לומד את גבהי הקבוצה בע"פ, נכון? נכון, מלבד מקרה אחד.
מה הוא?
טוב, זה קל - כשיש חבר אחד בקבוצה.
הממוצע "למד בעל פה" את המידע שעליו הוא התאמן. אין הכללה, רק שינון. >>
3. האנלוגיה הנחמדה הזו עובדת גם כשהמודל כולל יותר פרמטרים.
מודל רגרסיה פשוט, y=mx+n, כולל שני פרמטרים – m וn. אם ניתן לו רק 2 תצפיות – בינהן עובר קו ישר אחד, הוא ילמד אותן בעל פה.
מזהים את הדפוס?
הבעיה עם הכללה היא כזו: ככל שהמודל יותר מסובך, בעל יותר "חלקים זזים" >>
4. כלומר פרמטרים, יש יותר סיכוי שהוא ילמד בע"פ את המידע שעליו הוא התאמן ולא יכליל.
וזה אומר שכשנציג לו דוגמאות חדשות – הוא יכשל.
לא משנה אם הוא רגרסיה או חיזוי מזג אוויר או מודל שפה.
העקרון הסטטיסטי הזה ליווה אותנו במשך עשורים.
מודלים מורכבים נוטים "להסביר יותר מידי" וכושלים. >>
5. אפשר לראות את זה בגרף (1) חשוב! לא לדלג.
לוקחים שני סטים של נתונים, אחד לאימון ואחד לבחינה. מאמנים מודל מורכב על סט האימון – נכשל במבחן.
מאמנים מודל פשוט יותר – לא נכשל במבחן.
דוגמא קלילה של רגרסיה בתמונה (2). מה לדעתכן מתאר יותר טוב את המציאות? ברור שהמודל הפשוט. >>
6. עד כאן טוב ויפה. שנים על גבי שנים זאת הייתה הקונספציה. גדול זה רע, פשוט זה טוב!
מה קרה ב2018?
סדרת ניסויים הראתה דבר מדהים – אם ממשיכים את הגרף (1) שבציוץ הקודם עוד ימינה, פתאום יש נפילה סופר חדה.
המודל הגרוע, המדקלם כמו תוכי – פתאום לומד.
ויותר טוב מהמודלים הפשוטים. >>
7. מה? מה קורה כאן?
המודל משתפר.. משתפר.. משתפר.. הופ פתאום משנן ונהיה גרוע.. גרוע יותר.. גרוע יותר... הופ משהו קורה המודל סופר חכם!
מה?!
כן. דמיינו מה עבר בראש של החוקרים שהם התחילו לראות תוצאות כאלה.
זה קצת כמו לגלות שבמהירויות גבוהות חוקי הפיזיקה פתאום עובדים אחרת.. >>
8. בהינתן העובדה המוזרה הזו, בואו נדבר על רשתות נוירונים.
לרשתות נוירונים מיליארדי פרמטרים.
מיליארדים.
היינו מצפים שהן יהיו ממש גרועות בהכללה – אבל זה לא המצב.
הן נפלאות, למרות שלפעמים יש בהן הרבה יותר חלקים זזים מאשר דוגמאות אימון. >>
9. דמיינו שהיינו יכולים לתת לקו רגרסיה 2 נקודות והוא היה מצליח להבין מהן את התופעה במלואה, עם טעות מנימאלית.
זה נוגד את האינטואציה בכל צורה.
רשתות נוירונים עצומות, הרבה יותר עצומות מכל בסיס הנתונים – לא לומדות אותו בע"פ ומצליחות להכליל.
למה?
לא לגמרי יודעים, אבל הנה השערות >>
10. כשהמודל לומד בעל פה את כל הדוגמאות שהוא מקבל, ולא משנה אם זה מודל שפה שלומדים מילים, מודל שלומד לסווג תמונות או כל מודל אחר, הוא עדיין צריך למלא "חללים" שנמצאים בין הדוגמאות שאנחנו נותנים לו.
אם אימנתי מודל רגרסיה על המספרים 1,2,4,5 – הוא יצטרך לנחש מה התוצאה של 3. >>
11. מודל מסובך שלומד בע"פ את בסיס הנתונים, נוטה "לחבר" את הנקודות בצורה מאד גסה.
הוא מנצל את כל הפרמטרים שלו כדי לשנן, ולא מחבר את הנקודות בצורה חסכונית - זאת הדרך הכי קלה להגיע לשגיאה 0.
זאת סיבה עיקרית לביצועים הגרועים בחיזוי על דברים שהוא לא ראה לפני. >>
12. אומרים שמודלים סופר מסובכים (בניגוד לסתם מסובכים) עושים את החיבור הזה (בין הנקודות) יותר טוב, ולמרות שהם לומדים את הנתונים בע"פ הם עדיין מצליחים לבצע הכללה.
הסבר נוסף הוא שכשלמודל יש המון פרמטרים, יש לו המון דרכים להגיע לשגיאה 0 על סט האימון.
זה מביא לזה שבעצם המודל יהיה >>
13. רגיש פחות לשינויים לעומת מודל גדול שמשתמש בכל הפרמטרים שלו כדי ללמוד את כל הדאטה.
הסברים מעפנים, אני יודע, אבל זה רוב מה שיש לנו.
כמובן שזה ממש על קצה המזלג.
חשוב להגיד שהתופעה הזו לא בהכרח מתרחשת בכל בעית ML.
אנחנו פשוט לא ממש יודעים עליה הרבה, והיא בחזית המחקר.
14. הדבר ההזוי כאן הוא שכמו שהזכרתי, יש כאן קצת ניוטון-איינשטיין.
החוקים של ניוטון עבדו עד רגע מסויים, ואז במצבי קיצון נשברו.
גם כאן המודלים שלנו גדלו למימדי ענק וגילינו שכל הבסיס שלנו לא מדויק.
דברים עצומים מתנהגים אחרת, לא רק בפיזיקה. >>
15. אם תשאלו אותי, זה פשוט מרתק.
אנחנו עדים לתקומה של תחום של במדע, וזה פאקינג מרגש.
אם מישהו מכם יודע לתת עוד איזה אינפוט על התופעה הזו - אשמח לשמוע.
נתראה בשרשור הבא :)
הכוח של GPT o1, סדרת המודלים החדשה של OpenAI.
המודלים האלה, שכונו פנימית Strawberry, אמורים להיות מודלים שמתמחים ב-Reasoning.
אבל איך בודקים דבר כזה?
איך נראה Reasoning?
אנסה לתת פה כיוון לאיך אני רואה את זה, ולמה אני חושב שהמודלים האלה הם אולי תחילת הדרך למהפכה 🧵>>
1. אני מפרש הפעולה הזו שנקראת Reasoning כיכולת שלנו לקחת בעיה ולהבין איזה ידע מקדים צריך לבנות על מנת לפתור אותה, לאסוף את הידע המקדים ורק אז להגיע לתשובה.
בשאלה המפורסמת ״כמה פעמים האות r מופיע במילה Strawberry״ רוב המודלים טועים בין היתר, גם בגלל זה.
בגלל שהתשובה שלהם >>
2. היא הסתברותית נטו, אין להם את תהליך ה״בניה״ של הידע כדי לענות: פירוק המילה לאותיות שלה קודם כל, ורק אז ספירה של כל האותיות, אחת אחת.
את זה בדיוק o1 מנסה לפתור. בשיטת אימון שOpenAI לא חושפים, המודל לא ״עונה״, הוא קודם כל מבסס את כל פרטי הידע הנחוצים, מנתח אותם ורק אז מרכיב >>
טוויטר יקר - עזרו לנו להקים בית לפראמדיקים בצה״ל.
(אמ;לק: הקמנו עמותה ואנחנו מגייסים).
הפעם אני הולך לספר לכם על התפקיד שלי בסדיר ובמילואים, ועל המסע לתת לאנשים כמוני בית, ליווי וקהילה.
בבקשה - שתפו את הפוסט ועזרו לנו להגיע ליעד.
תנו לי דקה להכיר לכם אותנו 🧵 >>
1. נתחיל בהתחלה, הנה הלינק לתרומה לעמותה (רשומה ומוכרת לצורכי מס כמובן).
2. פראמדיק וחובש זה לא אותו דבר.
חובש קרבי הוא לוחם. הם עוברים מסלול, יוצאים ל3 חודשים קורס חובשים בבה״ד 10 וחוזרים ליחידות.
הפראמדיקים הם יצורים אחרים לגמרי. התפקיד הומצא עקב מחסור - מחסור ברופאים.
פעם על אמבולנס היו רופא ואחות.
אבל מה לרופא שיודע לקרוא רטנגן ובדיקות דם >>
רק מוודא שאתם מעודכנים במה שקורה:
קלוד בדרך להביס את GPT בקרב המפתחים.
אתם אולי משתמשים בChatGPT (או קלוד) דרך ממשק אינטרנטי, אבל מאחורי הקלעים יש שוק פעיל מאד של מוצרים שמשתמשים במודלים האלה.
סקירה קצרצרה 🧵>>
1. סיכום טקסט, מענה אוטומטי ואפילו שירות לקוחות - יש המון מוצרים שנבנים סביב מודלי שפה.
עד כה, 90% מהם היו או מבוססי OpenAI, או מבוססים על מודלים פתוחים כמו Llama/Mistral.
מה שקרה הוא שOpenAI נתנו באופן כמעט בלעדי דרך קלה להחריד לגשת למודלים שלהם דרך קוד.
תראו בתמונה. >>
2. עשר שורות בקושי ואפשר לגשת למודל AI אימתני.
על בסיס זה נבנו עשרות אם לא מאות סטארטאפים שמנסים להפיק ערך ממכונת המילים הזו.
כמו שאמרתי, עד כה OpenAI שלטו בשוק הזה באופן כמעט בלעדי.
המודלים האחרים היו סוג של "התפשרות" למי שרוצה לעשות איזה אימון יחודי בעצמו. ממש לא הסטנדרט >>
על תקרת הזכוכית של מהפכת הGenAI הנוכחית.
האם אנחנו רגע מGPT7 שיקנה בשבילנו מניות בבורסה וSORA שתחליף את הוליווד?
כנראה שלא. ממש לא.
תוהים איך יראה העתיד?
קחו אוויר, שימו בBookmark אם צריך - שרשור ארוך, אבל אחד שאסור לפספס 🧵 >>
1. ההתקדמות בAI מסחררת. ליטרלי מסחררת.
הסחרור מתודלק ע״י כל סלבס הAI על הפלנטה. יש לזה שתי סיבות עיקריות, ואף אחת מהן היא לא וודאות לגבי העתיד:
הבאזז מאפשר לגייס הרבה מאד כסף,
והאנשים האלה באמת באמת *רוצים* להצליח, מחשבה-מייצרת-מציאות.
השאלה: הם המציאות מתכתבת עם הבאזז? >>
2. בשרשור הזה אני רוצה לנסות לצמצם את הסחרור, ולנסות לחשוב ריאלית איך העתיד הולך להראות.
רשימת עובדות 1#:
גם למשתמשים משלמים, יש עדיין מגבלה של עד 50 הודעות כל 3 שעות
על GPT4. שנה אחרי שהוא שוחרר.
לקלוד - Opus החדש, גם במנוי PRO, יש מגבלה של 100 הודעות ב8 שעות במקרה הטוב. >>
בשקט בשקט, אילון זרק פצצה הלילה.
השבב המוחי הראשון הושתל באדם בריא, שבב חיבור בין הטכנולוגיה למוח.
האפליקציה הראשונה לשבב, איך לקרוא, תיקרא ״טלפתיה״ (Telepahy) ותיועד לאנשים שאיבדו את היכולת להזיז את הגפיים.
לאט לאט, הכל מתחבר >>
המונח המטורף כאן הוא הBrain Interface.
האמת, זה ממש אינטואיטיבי. הדרך שלנו לתקשר עם הטכנולוגיה היא דרך מתווך. יותר נכון מתווכות - הידיים והאצבעות שלנו.
המוח שולח שדר אליהן, הן מעבירות את השדר למכשיר שבתורו מחזיר שדר שנקלט בעיניים או באוזניים שלנו - וחזרה למוח.
המשימה של >>
ֿֿ
ניורולינק היא החלום הרטוב של כל קונספירטור מצוי.
השתלת שבב במוח שיחסוך את המתווכות, ויאפשר לנו לתקשר עם הטכנולוגיה שלנו בכוח המחשבה.
נשמע בדיוני, אבל על פניו - הסיגנל 100% נמצא שם במוח.
מה שצריך הוא לחלץ אותו ולהשתמש בו, ״זה הכל״.
שבב. ממש שבב. >>
שמעתם על גאדג׳ט הAI החדש?
גם אני.
הרמתם גבה?
גם אני.
אז באיחור של שבועיים, בואו נדבר רגע על הדבר הזה.
קשקוש, או העתיד? 🧵>>
(אה כן, אם שמתם Bookmark - תוסיפו איזו הקלקת לייק, זה סופר עוזר לי 🥰)
1. נתחיל בטכני.
מדובר על מכשיר קטן בעלות 199$ שמתפקד קצת כמו אלכסה, סירי או גוגל אסיסטנט.
המסך הוא מסך מגע, יש בו גם סוג של גלגלת אנלוגית ומצלמה 360 מעלות נשלפת כדי שהטמגוצ׳י הזה יוכל גם לראות את העולם.
למכשיר קוראים r1, או בשמו המלא כולל החברה שמייצרת אותו: rabbit r1 >>
2. הרעיון, אם לא ראיתם את הדמו הארוך, הוא שכל התקשורת איתו מילולית.
״תזמין לי אובר למחר״, ״תמצא לי חופשה, רכב ומלון בלונדון במרץ״.
הוא ישלח ״ארנב״ לרשת, יחפש, יזמין ויתן לכם לאשר.
הוא יתפקד גם כChatGPT קולי, תשאלו שאלה, הוא יענה.
זמן המענה קצר להחריד. הם מדברים על פחות מחצי >>