Tsoof Bar Or Profile picture
צוף, 28, Data Science (BGU) בתהליך. פראמדיק לשעבר, שומע את אותם שירים מגיל 14 וכותב על AI בשפה של בני אדם.

Apr 27, 2023, 17 tweets

משתגעים להבין מה זה כל הGPT הזה?
אני במילואים, עייף וחסר יכולת להשקיע במטלות שלי, אז ברור שזה הזמן לכתוב שרשור.
היום נכנס לנבכי הLLM - "מודלי שפה ענקיים" וננסה להבין מה קורה בקישקע שלהם ואיך הם עובדים כלכך טוב.
כרגיל, לא צריך ידע במתמטיקה או מחשבים.
#פידטק #פידאטה יאללה >>

1. נתחיל בהתחלה עם כותרת מפוצצת.
הGPT הוא חלק מקבוצת אלגוריתמים בשם LLM - Large Language Models שמבוססים על רשתות הנוירונים הקלאסיות (NN) עם ים שדרוגים.
אם NN היא קיר, אז LLM הוא סוג של עזריאלי.
אם הרעיון של NN זר לכם, מזמין אתכם לשרשור שלי בנושא >>

1.5. אמ;לק קצר לפני שנתחיל: הLLMs לוקחים את הטקסט, ממירים אותו למספר, חוזים מה המספר הכי סביר הבא, ממירים את המספר הכי סביר הבא לטקסט, והופ - קיבלנו תשובה מChatGPT. עכשיו נרד לעומק של המכונה המשומנת הזו.
איך זה קורה? >>

2. בגדול, אפשר לאפיין כל מגדל עזריאלי כזה בעזרת שני רעיונות: פרמטרים וטוקנים.
נתחיל בפרמטרים. ההנחה שעומדת מאחורי הLLMs ממש פשוטה - שפה היא מודל סטטיסטי.
מה הכוונה?
כמו ש"הטלת מטבע" הוא מודל סטטיסטי בו יש סיכוי של 50%>>

3. שאקבל עץ או פלי, שפה טבעית היא מודל סטטיסטי שבו אם אני אגיד "למה?" יש סיכוי של X% שהתשובה תהיה כובע.
אגב, כדי למדל את ההתפלגות הסטטיסטית של הטלת מטבע צריך פרמטר אחד בלבד, והוא p=0.5. אני יכול למדל מטבע לא הוגן, עם סיכויים אחרים לעץ או פלי עם פרמטר אחר >>

4. נגיד 20% סיכוי לקבל עץ, ו80% לקבל פלי (p=0.2).
זה פרמטר אחד כי אפשר לנצל את זה שתמיד יקרה משהו, ואז יש הסתברות משלימה.
מספר הפרמטרים במודל שפה קובע בעצם כמה "חלקים זזים" יהיו לו.
אז אם כדי למדל הטלת מטבע צריך פרמטר אחד לGPT3, המודל שמאחורי הגרסה הפופולארית של ChatGPT יש..

5. 175 מיליארד פרמטרים.
175,000 כפול 1,000,000 מספרים. הגיוני?! כן!
עולם המאורעות של הטלת מטבע כולל 2 מאורעות - עץ או פלי.
שפה היא יותר מורכבת ב-ה-ר-ב-ה, וכדי להצליח לחזות מה ההמשך הכי סביר סטטיסטית צריך מודל מאד "עשיר" ביכולת שלו להתכוונן! >>

6. עכשיו נדבר על החלק השני - טוקנים.
מה זה "טוקן"? הטוקן הוא בעצם היחידה הבסיסית ביותר שהמודל יכול לקרוא.
טוקן יכול להיות אות, צמד אותיות, מילה וכן הלאה. השיטה של GPT היא סוג של מידול צמדים של אותיות כדי לפי השכיחות שלהם ל"מילון" >>

7. ענק, שלפי מקורות שראיתי בGPT3 הוא סביב ה14.5 מיליון טוקנים, בהמון שפות.
אגב, בשפה העברית יש 45K מילים, אז.. זה די הרבה. בעזרת המילון הזה מודל השפה עושה תרגום של הטקסט למספרים אותם הוא באמת מעבד. >>

8. האלגוריתם עצמו בנוי בצורה כזו שיש לו "חלון", כלומר הגבלה של מה קלט הטקסט הגדול ביותר שהוא יכול לקבל בבת אחת.
לGPT3.5 יש חלון של 4K טוקנים. זה בעצם כמה שהאלגוריתם יודע "לזכור" אחורה וככה לייצר תשובה שמבוססת על הסתברות מותנית ב4000 טוקנים. די מטורף, לי אין זיכרון כזה. >>

9. אוקי, אז איך עובד כל התהליך?
אם נמשיך בדוגמת GPT3, נאסף מאגר מידע ענקי של כמעט 500 מיליארד טוקנים מ-ספרים, ויקיפדיה ועוד המון המון מידע מהאינטרנט. טקסט אמיתי כמובן!
עכשיו יש לנו את כל המידע כדי לאמן את הקישקע של המודל. הוא >>

10. לוקח מידע, הופך אותו לטוקנים, מסתיר את הסוף ואז מנסה לחזות אותו, ואז שוב, ושוב, ושוב, ושוב.
בכל פעם המחשבים מזיזים ומשנים את הפרמטרים (מספרים) השונים כדי להצליח לשפר את היכולת לחזות את המספר (כלומר טוקן) הבא >>

11. והידד! בנינו מודל שפה.
בנינו סוג של מנוע, שעכשיו צריך לבנות סביבו מכונית.
את זה עושים בעזרת מה שנקרא Fine Tuning.
ברגע שהמודל למד מספיק זמן לחזות את הטוקנים הבאים בצורה טובה, במקרה של ChatGPT לדוגמא >>

12. אימנו אותו להחזיר תשובות שלא רק מתאימות למשימת ה"הכי סביר שזה המשך המשפט" אלא גם דומות לשיח עם אדם בצ'אט.
את זה כבר עשו בטכניקה אחרת, של למידה עם חיזוקים, מעבר לscope של השרשור הזה.
הרעיון הוא שאפשר לקחת את אותו מנוע שאומן במשך ימים רבים על מחשבים רבים >>

13. ולהתאים אותו בזמן קצר יחסית ובזול יחסית למשימות אחרות.
זאת בעצם הליבה של GPT ושל כל מודלי השפה שמציפים אותנו בחודשים האחרונים - מכונות הסתברות מפלצתיות שמנסות לחזות מה ההמשך הכי סביר לטקסט שנתנו להם + משימות צד נוספות.
על בסיס זה קמו סטארטאפים >>

14. שבעזרת גישה למודלים האלה בונים מערכות שמותאמות יותר לקופירייטינג, לכתיבת קוד וכמובן - לצ'אט!
העתיד? מרגש, מפחיד, לא יודע, אבל ככל שהמנועים האלה הופכים חזקים יותר, החיזוי הסטטיסטי הזה מרגיש יותר ויותר כמו מוח שאפשר גם ללמד אותו לחפש ברשת, לקרוא את הטקסט, לראות תמונות >>

15. ואפילו לבצע משימות.
עוד הרבה (מאד!) אתגרים לפנינו לפני שנגיע למה שנקרא AGI, בינה מלאכותית "כללית" שבאמת תוכל לעשות הכל, אבל מודלי השפה הם ללא ספק צעד אימתני בכיוון הזה.
לאן אתם חושבים שזה ילך? מה עוד צריך לקרות כדי שהמודלים האלה יחליפו אותנו? עבודה של מי בסכנה?
שתפו בתגובות!

Share this Scrolly Tale with your friends.

A Scrolly Tale is a new way to read Twitter threads with a more visually immersive experience.
Discover more beautiful Scrolly Tales like this.

Keep scrolling