Tsoof Bar Or Profile picture
May 31 21 tweets 7 min read Twitter logo Read on Twitter
הAI שפותר בעיות במתמטיקה, ועושה את זה נפלא!
אני יודע שזה הוכרז הרגע, אבל אני מכה בברזל כל עוד הוא חם.
מה פשר ההכרזה של OpenAI?
איך זה שונה ממודל שפה רגיל?
בואו איתי 🧵 >>
#פידטק #פידאטה #פידטכנולוגיה Image
כדי להבין מה קורה כאן, צריך תפישה טובה של מה זה מודל שפה, לשירותכם בשרשור המצורף.
אני גם ממליץ לקרוא את השרשור על AutoGPT כרקע, שמקושר בציוץ הבא.
מודלי שפה חובה.
AutoGPT אפשר בלי.
נתחיל >>
1. דיברנו כבר על Complex Reasoning בשרשור על AutoGPT.
אפשר להסביר למודל שפה "איך לחשוב".
להגיד לו שהוא צריך לתכנן, לבקר את עצמו, לתת סיבות ורק אז לפעול.
הבעיה העיקרית היא תופעת ה"הזיות", הקטע הזה שמודל שפה אומר לכם שבנימין נתניהו הוא רקדנית בלט רומנייה >>
2. וכשמדברים על מודלים שבנויים בשיטת הChain, שמבצעים פעולות בהדרגה מחשבה אחרי מחשבה, כל הזיה כזו מייצרת שגיאות מצטברות שמכשילות את המודל לגמרי בהגעה לפתרון הסופי.
כדי לפתור בעיות במתמטיקה חייבים חשיבה משורשרת כזו.
מתמטיקה היא תהליכית! >>
3. עשו כבר Fine Tune למודלים במתמטיקה,
אבל עשו את זה בשיטה בשם OEM - Outcome-supervised reward models.
תגמלו מודל אם הגיע לתשובה הנכונה.
OpenAI מימשו PRMs - process-supervised reward models.
במילים אחרות - It's about the journey, not the destination!
בעצם לא "רק" היעד. >> Image
4. כל הרעיון הזה מתחבר לתחום מחקר מאד משמעותי של OpenAI, שנקרא AI Alignment, כלומר יישור הAI שיתחבר לערכים האנושיים.
אם נבקר אותו גם על הדרך שלו ולא רק על התוצאה, נוכל למנוע ממנו להיות רע.
הראו כבר שמודלים שמתוגמלים על תוצאה משתמשים חופשי בלוגיקה שגויה כדי להגיע אליה. >>
5. במאמר מ2022 שמצוטט, הכותבים אומרים שלא נראה הבדל בתוצאות כשניסו לאמן מודל בשתי השיטות (OEM וRPM) על מתמטיקה של יסודי.
OpenAI עשו את זה, כאמור, בגדול. מודל חזק יותר, הרבה יותר Human Feedback ודאטהסט של מתמטיקה מסובכת. >> Image
6. קודם כל, וזה חשוב, מה שהם אימנו הוא מודל פרסים ולא מודל שפה.
מה הכוונה?
בשלב הFine Tune של מודל שפה משתמשים בRL, שזה אימון עם פרסים.
לא ארחיב על זה, אבל בן אדם צריך לבדוק כל צעד ולתת למודל השפה פרס (או קנס) עליו.
זה כמובן לא אפשרי ריאלית.
לכן מה שעושים הוא לאמן מודל פרסים, >>
7. מודל שמסתכל על צעד בפתרון ומחליט כמה פרס לתת לו.
נזכיר: באימון מודל שפה שני חלקים.
החלק הראשון הוא האימון ה"יבש" של השלמת משפטים, שם הוא לומד שפה. השני הוא אימון RL עם פידבק אנושי.
הם לקחו גרסה של GPT4 בלי החלק השני, ובעצם ביצעו רק אותה בעזרת מודל הפרסים שהם יצרו. >>
8. הניסויים בוצעו עם GPT4 שאומן קצת מראש להשתפר במתמטיקה.
הם עשו אימון מקדים ככה שיתן תשובות קצרות ובפורמט קבוע בכל פעם.
בקיצור, שיתאים למתמטיקה.
הם יצרו דאטהסט שכולל 12k בעיות, להן 75k פתרונות מוצעים ו800k צעדים סה"כ - בצורה הבאה. >>
9. כל צעד יכול להיות מתוייג כנכון, ניטרלי או שגוי.
כדי לייצר את הדאטהסט, הם נתנו לבודקים אנושיים לתייג דוגמאות שמודל
הפרסים חשב שהדרך בהם משכנעת, אבל התשובה שגויה.
כאלה מבלבלות, כדי שסט האימון יהיה מורכב מספיק.
עושים את זה, ומאמנים שוב ושוב את מודל הפרסים מחדש. >> Image
10. אם זה לא היה ברור, מודל הפרסים צריך לעשות את מה שהאנשים עושים - להגיד האם כל שלב נכון, פשוט על מיליוני דוגמאות.
בקיצור - מייצרים N פתרונות של מודל השפה לכל בעיה.
בוחרים את הK עם הפרס הכי גבוה לפי מודל הפרסים - אבל שגויים!
נותנים לאדם לתייג אותם באמת.
ושוב, ושוב, ושוב. >>
11. שימו לב שזה מייצר Bias רציני לתשובות שגויות. הם מתייחסים לזה במאמר, אבל כאן לא נדבר על זה. לא מספיק חשוב.
נמשיך.
אחרי בניית מודל הפרסים, נותנים למודל השפה לפתור בעיה לפי שלבים.
מודל הפרסים מחשב לו ניקוד לפי "ההסתברות שכל צעד שמודל השפה עשה נכון".
12. גם מודל הפרסים יכול לטעות, אז מכניסים את הביטחון שלו בהחלטה לניקוד הסופי.
כדי שיהיה אפשר להשוות בין OEM לRPM, הם גם החליטו שברגע שמודל השפה בRPM עושה צעד לא נכון, הם עוצרים את החשיבה שלו.
פתרון נכון צריך להגיע רק אחרי שלבים נכונים. >>
13. הם אומרים שזה גם הופך את ההשוואה להוגנת יותר, כי אם ניתן למודל RPM לענות על שאלה עד הסוף ניתן לו אפילו עוד יותר אינפורמציה על היכן הוא טעה, וזה יתרון לא הוגן מול הOEM, זה יותר זמן אימון.
בכל מקרה, בואו נדבר תוצאות. >>
15. מה רואים בגרף?
בציר הy, אחוז התשובות הנכונות.
בציר הx, קורה הדבר הבא:
כל מודל מייצר N פתרונות לבעיה, ונבדק כמה מהם נכונים (ציר הy).
ניתן לראות שכשנותנים למודל הPRM לייצר הרבה פתרונות, הוא מייצר יותר פתרונות נכונים.
לא אכנס למה זה הMajority Voting הזה, אבל זה בייסליין. Image
16. זה קצת מסובך יותר: אימנו מודלים בגדולים שונים, בצורות שונות, ביצעו עוד ניסויים שקצרה היריעה לתמצת 29 עמודים לשרשור אחד.
המאמר מסיק מסקנה חשובה על Alignment.
היה אפשר לחשוב שלנסות להתחיל להתאים את המודלים שיחשבו כמונו, בצורה "בטוחה", יהיה משהו שיגזול משאבים.
פה אנחנו מראים >>
17. שכשאנחנו מבקרים את תהליכי החשיבה של המודל - אנחנו מקבלים תוצאות טובות יותר.
כלומר, מה שהם מכנים הAlignment Tax, המחיר שאנחנו משלמים על מודלים שלא מסכימים לעזור לטרוריסטים - הוא בעצם שלילי, הAlignment משפר את ביצועי המודל.
מסקנה קצת מרחיקת לכת לטעמי אבל ממש לא-לא נכונה. >>
18. וזהו!
ראיתי את המאמר הזה ולצערי הייתי חייב לעזוב הכל לכתוב עליו, כי הוא פשוט מרתק!
מה דעתכם על הרעיון?
האם ככה יראה העתיד של אימון מודלי שפה?
נאמן על שרשרת מחשבות, ולא על תוצאה?
יש לי תחושה שכן.
אם זה השרשור הראשון שלי שאתם קוראים, היי!
מזמין אתכם לחקור איתי את הקישקע של הAI,
כל פעם בדרך אחרת.
זה הזמן לעקוב אחרי:
twitter.com/tsoofbaror

מזמין אתכם לרטווט ולהגיב אם אהבתם,
ולהתעלם לגמרי אם השתעממתם. 😍
דיסקליימר:
יש הרבה "פרטים קטנים" שהשמטתי כדי שהדבר הזה יהיה קריא. המודלים לא בדיוק אומנו על אותו הדאטה, היו גדולים וקטנים, אז אני באמת ממליץ לקרוא את המאמר האמיתי כדי להבין מה קרה שם:
cdn.openai.com/improving-math…

הסבר קצר על RL:

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Tsoof Bar Or

Tsoof Bar Or Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @tsoofbaror

Jun 2
מורה נבוכים לAI!
שמעתם על המאמר החדש שטוען ש"יש אופטימייזר חדש לטרנספורמר שעוקף את אדם במזעור הלוס"?
נמאס לכם מכל מילות הבאזז האלה?
בשרשור הארוך מידי הזה נעשה דיבאזינג לכל הבאז.
מוכנים? 25 מושגים ומונחים, שרשור ע-נ-ק לסופ"ש 🧵>>
#פידטק #פידאטה #פידטכנולוגיה Image
1. דאטהסט ומודל.
המודל הוא בעצם הAI שפועל על הדאטהסט, שהוא הנתונים מהם הAI לומד.
המודל הוא ה"איך", הדאטהסט הוא ה"ממה" לומדים.
הדאטהסט הוא טבלה עם עמודות ושורות.
בדרך כלל מחלקים דאטהסט ל3 חלקים.
הראשון הוא סט האימון עליו המודל מתאמן. השני הוא >> Image
סט הולידציה, עליו תוך כדי תהליך האימון בודקים את ביצועי המודל, בלי שהוא מתאמן עליו.
השלישי הוא סט הבחינה, שנשמר בצד עד הרגע האחרון, לא נוגעים בו באימון. עושים עליו בדיקה פעם אחת בסוף כדי לייצג כמה המודל באמת למד.
השורות בדאטהסט הן הדגימות השונות, והעמודות מובילות אותנו ל: >> Image
Read 33 tweets
May 29
הGPT בצלמנו ובדמותנו - AutoGPT.
האם זה הAI שסוף סוף ידע להכין לנו קפה?
לא.
האם הGPT פתאום מרגיש כמו מוח אנושי?
קצת כן.
היום נשוט בין המדהים לקצת מפחיד ונדבר על סוכן הAI האישי שלכם, AutoGPT 🧵>>
#פידטק #פידאטה #פידטכנולוגיה Image
שימו לב.
כדי להבין מה קורה כאן, נצטרך תפישה רעיונית של מה זה מודל שפה (LLM).
אנסה להיות ברור ככל האפשר, אבל אני ממליץ בחום לעבור על השרשור הזה לפני שאתם מתקדמים לAutoGPT.

אחרי שאמרנו את זה, נתחיל >>
1. שבת שטופת שמש והחלטתם לבלות אותה בהרכבת רהיט מאיקאה.
כיף גדול.
הארגז עומד מולכם.
"טוב, צריך לפתוח את הארגז", אתם חושבים.
"בלי לפתוח את הארגז אי אפשר להתחיל בכלל", אתם ממשיכים לחשוב.
"אוקי, אני אחתוך פה את נייר הדבק".
"רק אזהר לא להחתך בדרך".
נשמע מוכר? >> Image
Read 20 tweets
May 27
תהיתם פעם מה קורה אם נותנים לשני מודלי AI להלחם זה בזה?
נשמע כמו מתכון לסוף העולם?
יכול להיות, But Not Today.
למרות שהיה נראה שהן מתחילות להעלם מהעולם, רשתות אדוורסריאליות (GANs) חזרו ובגדול עם DraGAN, הכלי המטורף לעיבוד תמונה.
אז איך זה עובד? 🧵>>
#פידאטה #פידטק #פידטכנולוגיה
1. נתחיל בהערה חשובה.
ה-GANs, קיצור של Generative Adversarial Networks, היו ה-מודלים הגנרטיביים של "פעם", כש"פעם" בAI זה לפני שנים ספורות.
היה באז גדול על thisxdoesnotexist.com, מודל גנרטיבי אמיתי (כמשתמע, GANs הם GenAI) שיצר כל מיני דברים שלא קיימים.
היה מדהים, אבל אז הגיחו >>
2. הDiffusion Models לעולם והדיחו את הGANs מגדולתן.
הם המודלים שבבסיס מידג'רני, Dalle2 וחבריהם.
היום לא נדבר על דיפוזיה אלא על אותן GANs שעושות קאמבק היסטורי (כלומר, היסטוריה מ2014).
arxiv.org/abs/1406.2661
מוכנים?
נתחיל! >>
Read 16 tweets
May 26
אני מקווה שאתם מוכנים לשפשף את העיניים.
אחרי שמודלי שפה הראו יכולות פנומנלית בניהול שיחה, הבנת סנטימנט ועוד אי אילו משימות מורכבות, באו המדענים הסינגפוריים והראו שהם גם יכולים להיות טובים ב......
חשבון פשוט! >>
arxiv.org/pdf/2305.14201…
1. סתם, כמובן בלי טיפת זלזול, הם הראו שאם עושים fine tune למודל שפה על תרגילים של חיבור, חיסור, כפל וחילוק הוא מצליח לפתור גם תרגילים שהוא לא ראה, כאלה מסובכים.
זה נראה קצת טפשי, אבל יש כן משמעות פילוסופית - מתמטיקה היא סוג של שפה, לאו דווקא Skill קשה. >>
2. מה שמעניין כאן הוא השאלה האם המודל "חושב", כלומר מפעיל לוגיקה "אנושית" כדי להגיע לתשובות, או שאיכשהו בתהליך האימון המודל עבר סוג של hard-coding להיות קצת מחשבון.
כלומר, הנוירונים אשכרה עושים פעולות מתמטיות ישירות.
אם אני שואל את המודל כמה זה 10 ועוד 17, איפהשהו >>
Read 6 tweets
May 21
שונאים הקלטות של 2 דקות בוואצאפ?
בניתי מסכם שיחות.
בשעה.
בפחות מ20 שורות קוד.
הAI עובר דמוקרטיזציה - אתם לא מבינים כמה קל לבנות אפליקציות מבוססות GPT.
היום אספר לכם איך עשיתי את זה, וגם אם אין לכם שום רקע תכנותי - תבינו את הפשטות >> Image
השרשור הזה מניח שאתם מבינים הרעיון מודל שפה.
ממליץ לקרוא את השרשור הזה לפי, אבל לגמרי לא חובה, אם אין זמן פשוט תמשיכו הלאה, מבטיח שתבינו הכל.
נתחיל >>
1. כדי לבנות את המסכם, השתמשתי בשני מודלים של OpenAI.
הראשון נקרא Whisper, והוא מתמלל לטקסט קטעי אודיו. הוא עולה לי 2.2 אגורות לדקת תמלול.
השני, איך לא, הוא GPT.
הוא עולה לי כ0.7 אגורות ל1000 טוקנים (כ600-700 מילים).
אלה המחירים. קראתם נכון >> Image
Read 12 tweets
May 20
לאמן GPT על המידע של סבא מושיק.. בלי לאמן אותו?!
נכון שתמיד רציתם ChatGPT שיוכל לענות על שאלות שקשורות לעבודת השורשים שלכם?
"היי, תגיד, איפה סבא מושיק נולד?"
כל זה בלי לאמן אותו על שום דאטה של שום סבא!
שרשור טכנולוגי קליל לשבת! 🧵 >>
#פידאטה #פידטק #בינהמלאכותית Image
1. קודם כל, אם אין לכם שום הבנה איך מודלי שפה (LLM) עובדים מזמין אתכם קודם כל לקרוא את השרשור הקליל שלי בנושא, כי אני הולך להשתמש במילים כמו "קונטקסט" או "טוקן".
אעשה את המיטב להיות מובן גם בלעדיו, בכל מקרה. >>
2. מה הדרך הסטנדרטית לגרום למודל שפה לדעת דברים?
לאמן אותו על המידע הרלוונטי.
המודל מתאמן בשיטה של השלמת משפטים.
לוקחים את הדאטה, כל פעם חותכים באמצע ונותנים למודל לחזות את החצי השני.
התהליך עולה כסף, מצריך הבנה טכנית של כיצד מבצעים אותו בצורה נכונה, >> Image
Read 14 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us on Twitter!

:(