צדיק, יש לך דקה לשמוע על אלכס משיח הAI?
האיש שבלעדיו הסמיילי 🤯 היה כנראה מובטל.
היום נכיר את האיש הכי חשוב שאתם לא מכירים.
מוכנים? בואו איתי 🧵>> #פידטק#פידאטה#פידטכנולוגיה
(אה כן, אם שמתם Bookmark - תוסיפו איזו הקלקת לייק, זה סופר עוזר לי 🥰)
כדי להבין מה קורה בשרשור הזה, אני בונה על זה שאתם יודעים בגדול איך עובדת רשת קונבולוציה.
זה בעצם סוג של חלק ג' אחרי רשת נוירונים רגילה.
רשת נוירונים:
1. פאן פאקט עלי, מעריץ שרוף של @GeronRoy והפודקאסט "כשבגרוש היה חור".
הפודקאסט בוחן את ההיסטוריה בראי כלכלי, כי מה הדרך הכי טובה ללמוד כלכלה אם לא מאירועים שקרו באמת?
אז בהשראתו:
היום נצלול להיסטוריה הרחוקה של הAI אי שם ב.. 2012.
מוכנים? >> osimhistoria.com/grush
2. מאגר התמונות ImageNet הוא אולי הכי מפורסם מעולם הAI.
נכון להיום, כולל 14 מיליון תמונות עם יותר מ20,000 מחלקות (תיוגים שונים).
תמונות של בלונים, חתולים, כלבים, בניינים, מה שתרצו.
לקח 3 שנים לבנות אותו, והוא פורסם ב2009 לקהילת "הראיה הממוחשבת", כי אז AI עוד >>
3. היה קצת מילה גסה.
בכל מקרה, אותו דאטהסט ענק זוקק לדאטהסט שמכונה ImageNet-1K.
הוא כולל 1.2M תמונות אימון, 50k ולידציה, 100k בחינה.
ב2010 התחילה תחרות עם השם הארוך והלא-סקסי:
ImageNet Large Scale Visual Recognition Challenge
או ILSVRC בקצרה.
התחרות עבדה כך >>
4. צוותים בנו אלגוריתמים שלמדו את הדאטה, ואז נבחנו על הסט של ה100K.
עבור כל תמונה מה100k, המודל נדרש לייצר 5 תשובות (מתוך 1000 אפשריות), מה שנקרא Top-5 Error.
אם התיוג הנכון נמצא בין 5 התשובות האלה, תשובת המודל מוגדרת כהצלחה.
ב2010-2011 כשהתחרות התחילה, המודלים הכי טובים הגיעו >>
5. לשגיאת-טופ-5 של 25.8%.
ואז (בקול של אסי) הגיע אלכס, ובשנה אחת חתך את השגיאה ל15.3%.
מה שנקרא, Everybody Got Crazy.
למה?
ב2010-11 הקבוצות הזוכות עבדו בשיטות ML קלאסיות.
כל תמונה עברה אלגוריתמים שמהנדסים ממנה מאפיינים, דוחסים אותם והעבירו אותם במסווג שמכונה SVM >>
6. שהוא די פשוט.
ב2012 אותו אלכס, יחד עם איזה אחד שלא מזמן ביקר פה בארץ, איליה סוצקבר המדען הראשי של OpenAI וג'פרי הינטון (עוד ביגשוט בתחום), החליטו להשתמש ברשת נוירונים, אבל לא סתם!
כזו שכוללת כל מיני שדרוגים שונים ומשונים שהיום אספר לכם עליהם.
בנוסף, המימוש שלו אימן >>
7. את הרשת על GPU, דבר שכבר נעשה בעבר, אבל עדיין היה יחסית חריג באותה תקופה.
לרשת אגב, הוא קרא באופן די משעשע AlexNet.
אבל לפני שנדבר על AlexNet, בואו נדבר על LeNet.
רשת הנוירונים LeNet נולדה, תחזיקו חזק, בשנת 1998!
יאן לקון ( @ylecun ), שהיום המדען הראשי של Meta >>
8. הראה כבר 1989 (זאת לא טעות, רגע) שהוא מצליח בעזרת רשתות קונבולוציה פשוטות מאד לזהות ספרות מכתב יד.
הרשת קיבלה תמונה שחור לבן בגדול 16x16, והנה המבנה שדיברתי עליו בשרשור על CNN - שכבות קונבולוציה, ואז שכבות "רגילות".
קצת יותר מ10 שנים אחרי ב1998 הוצגה >>
(בתמונה - הרשת מ1989)
9. הארכיטקטורה של LeNet. אבל רגע לפני שאדבר עליה, תראו את הסרטון הזה - רשתות נוירונים ב1989!
משוגע.
זה יאן לקון הצעיר, אגב.
בכל מקרה, LeNet. >>
10. הנה LeNet.
הרשת הזאת היא באמת אם-כל-רשתות הקונבולוציה, עם התחלת הפופולריזציה של מבנה הקונבולוציה -> אקטיבציה -> פולינג -> חוזר חלילה..
שימו לב לכל המונחים המוכרים משרשור הCNN - יש פה גרעין (Kernel), יש Padding, יש Stride.
נשים לב:
האקטיבציות הן Sigmoid. זה >>
11. היה הסטנדרט ברשתות נוירונים אז.
הPooling לא היה Max Pooling הנפוץ היום, אלא Average Pooling.
עוד על הפולינג בהמשך.
אז LeNet אמנם עבדה נפלא, אבל האימון שלה היה איטי מאד (עוד לא אימנו אז עם GPU) והיא לא ממש הייתה שיפור לשיטות הקיימות, אותם SVMים
שהזכרתי קודם. בכל מקרה, LeNet >>
12. נוצרה אבל לא "תפסה", אך מקומה ההיסטורי חייב אזכור כהשראה לAlexNet שדי דומה, עם כמה שדרוגים רציניים.
הראשון היה שימוש באקטיבציות ReLu במקום סיגמואיד.
אמפירית הבינו שRuLu עדיפה, והיא גם הנפוצה היום.
אם זה לא אומר לכם כלום, עוד אין לי שרשור אקטיבציות - בעתיד.
לא נורא, נמשיך. >>
13. השדרוג השני היה החלפת פולינג ממוצע במקס.
הנה אני אחרי קונבולוציה 3x3 עם גרעין זיהוי קצוות, ופולינג בשתי הדרכים. תראו איך המקס מבליט יותר את המאפיין המזוקק (קצוות).
מגניב, לא?
השדרוג השלישי היה שכבות Dropout, עליהן עוד לא דיברתי.
מדובר על שכבות רשת נוירונים רגילות >>
14.אבל בהן במהלך האימון (בלבד) בהסתברות מסויימת "מכבים" נוירונים (כלומר, הם מוציאים 0).
הרעיון כאן הוא לגרום לרשת לא להיות "תלויה" בנוירונים ספציפיים למשימה
והמחשבה היא שזה מונע Overfitting.
למיטב ידיעתי היום מתחילים לצמצם את השימוש בטכניקה הזו, כי לא ברור כמה היא באמת יעילה. >>
15. השיפור הרביעי והאחרון הוא כמובן - רשת עמוקה והרבה יותר מסובכת.
הנה היא לפניכם.
עם כוח האימון של הGPU שלא היה זמין ב1989, הצליחו אלכס ושותפיו לאמן את ה"מפלצת" הזו (במונחי 2012) ולנצח בענק בתחרות.
ההצלחה של AlexNet נחשבת לאחת מיריות הפתיחה של מהפכת הAI.
שתבינו, הארכיטקטורה >>
16. שניצחה את AlexNet בתחרות שלוש שנים אחרי היא של גוגל, וכללה רשת נוירונים עם יותר מ100 שכבות (!).
AlexNet הייתה שכנוע אמיתי - רשתות נוירונים עובדות.
טוב.
מאד.
רגע, עברו 3 שנים וגוגל בנו רשת עם +100 שכבות.
למה החבר'ה של AlexNet לא עשו ככה?
כמה כבר התחזקו המחשבים ב3 שנים?!
או! >>
17. זה לא כוח מחשוב.
היינו צריכים עוד מהפכה כדי להצליח לאמן רשתות עמוקות מאד.
עליה נדבר בשרשור הבא :))
<מוזיקת סיום>
נהנתי ממש לעשות מחקר היסטורי.
להבין תהליכי המצאה נותן המון השראה, וכשיגיע ההיסטוריון לכתוב את "ההיסטוריה של הAI", זה בהחלט מועמד לסיפור בדרגת יציאת מצרים. >>
18. וזהו!
מה דעתכם?
מעניינת אתכם ההיסטוריה של הAI?
ולמי שבוגר כל שאר השרשורים שלי, מרגישים שהצלחתם ליישם פה את ה"חומר הנלמד"?
ספרו לי בתגובות, אני נהנה לכתוב על הכל והדעות שלהם מכווינות אותי למה מעניין אתכם יותר.
אם זו פעם ראשונה שלכם אצלי, היי!
מוזמנים לחקור איתי את הקישקע של הAI,
כל פעם קצת אחרת.
זה הזמן לעקוב אחרי: twitter.com/tsoofbaror
אהבתם?
התמורה הכי טובה היא ריטווט הציוץ הראשון.
לא רוצים לפספס כלום?
בואו לערוץ הטלגרם שלי (כבר מעל 300 איש!)
קבלו עדכון לכל תוכן חדש.
הלינק בביו.
• • •
Missing some Tweet in this thread? You can try to
force a refresh
הכוח של GPT o1, סדרת המודלים החדשה של OpenAI.
המודלים האלה, שכונו פנימית Strawberry, אמורים להיות מודלים שמתמחים ב-Reasoning.
אבל איך בודקים דבר כזה?
איך נראה Reasoning?
אנסה לתת פה כיוון לאיך אני רואה את זה, ולמה אני חושב שהמודלים האלה הם אולי תחילת הדרך למהפכה 🧵>>
1. אני מפרש הפעולה הזו שנקראת Reasoning כיכולת שלנו לקחת בעיה ולהבין איזה ידע מקדים צריך לבנות על מנת לפתור אותה, לאסוף את הידע המקדים ורק אז להגיע לתשובה.
בשאלה המפורסמת ״כמה פעמים האות r מופיע במילה Strawberry״ רוב המודלים טועים בין היתר, גם בגלל זה.
בגלל שהתשובה שלהם >>
2. היא הסתברותית נטו, אין להם את תהליך ה״בניה״ של הידע כדי לענות: פירוק המילה לאותיות שלה קודם כל, ורק אז ספירה של כל האותיות, אחת אחת.
את זה בדיוק o1 מנסה לפתור. בשיטת אימון שOpenAI לא חושפים, המודל לא ״עונה״, הוא קודם כל מבסס את כל פרטי הידע הנחוצים, מנתח אותם ורק אז מרכיב >>
טוויטר יקר - עזרו לנו להקים בית לפראמדיקים בצה״ל.
(אמ;לק: הקמנו עמותה ואנחנו מגייסים).
הפעם אני הולך לספר לכם על התפקיד שלי בסדיר ובמילואים, ועל המסע לתת לאנשים כמוני בית, ליווי וקהילה.
בבקשה - שתפו את הפוסט ועזרו לנו להגיע ליעד.
תנו לי דקה להכיר לכם אותנו 🧵 >>
1. נתחיל בהתחלה, הנה הלינק לתרומה לעמותה (רשומה ומוכרת לצורכי מס כמובן).
2. פראמדיק וחובש זה לא אותו דבר.
חובש קרבי הוא לוחם. הם עוברים מסלול, יוצאים ל3 חודשים קורס חובשים בבה״ד 10 וחוזרים ליחידות.
הפראמדיקים הם יצורים אחרים לגמרי. התפקיד הומצא עקב מחסור - מחסור ברופאים.
פעם על אמבולנס היו רופא ואחות.
אבל מה לרופא שיודע לקרוא רטנגן ובדיקות דם >>
רק מוודא שאתם מעודכנים במה שקורה:
קלוד בדרך להביס את GPT בקרב המפתחים.
אתם אולי משתמשים בChatGPT (או קלוד) דרך ממשק אינטרנטי, אבל מאחורי הקלעים יש שוק פעיל מאד של מוצרים שמשתמשים במודלים האלה.
סקירה קצרצרה 🧵>>
1. סיכום טקסט, מענה אוטומטי ואפילו שירות לקוחות - יש המון מוצרים שנבנים סביב מודלי שפה.
עד כה, 90% מהם היו או מבוססי OpenAI, או מבוססים על מודלים פתוחים כמו Llama/Mistral.
מה שקרה הוא שOpenAI נתנו באופן כמעט בלעדי דרך קלה להחריד לגשת למודלים שלהם דרך קוד.
תראו בתמונה. >>
2. עשר שורות בקושי ואפשר לגשת למודל AI אימתני.
על בסיס זה נבנו עשרות אם לא מאות סטארטאפים שמנסים להפיק ערך ממכונת המילים הזו.
כמו שאמרתי, עד כה OpenAI שלטו בשוק הזה באופן כמעט בלעדי.
המודלים האחרים היו סוג של "התפשרות" למי שרוצה לעשות איזה אימון יחודי בעצמו. ממש לא הסטנדרט >>
על תקרת הזכוכית של מהפכת הGenAI הנוכחית.
האם אנחנו רגע מGPT7 שיקנה בשבילנו מניות בבורסה וSORA שתחליף את הוליווד?
כנראה שלא. ממש לא.
תוהים איך יראה העתיד?
קחו אוויר, שימו בBookmark אם צריך - שרשור ארוך, אבל אחד שאסור לפספס 🧵 >>
1. ההתקדמות בAI מסחררת. ליטרלי מסחררת.
הסחרור מתודלק ע״י כל סלבס הAI על הפלנטה. יש לזה שתי סיבות עיקריות, ואף אחת מהן היא לא וודאות לגבי העתיד:
הבאזז מאפשר לגייס הרבה מאד כסף,
והאנשים האלה באמת באמת *רוצים* להצליח, מחשבה-מייצרת-מציאות.
השאלה: הם המציאות מתכתבת עם הבאזז? >>
2. בשרשור הזה אני רוצה לנסות לצמצם את הסחרור, ולנסות לחשוב ריאלית איך העתיד הולך להראות.
רשימת עובדות 1#:
גם למשתמשים משלמים, יש עדיין מגבלה של עד 50 הודעות כל 3 שעות
על GPT4. שנה אחרי שהוא שוחרר.
לקלוד - Opus החדש, גם במנוי PRO, יש מגבלה של 100 הודעות ב8 שעות במקרה הטוב. >>
בשקט בשקט, אילון זרק פצצה הלילה.
השבב המוחי הראשון הושתל באדם בריא, שבב חיבור בין הטכנולוגיה למוח.
האפליקציה הראשונה לשבב, איך לקרוא, תיקרא ״טלפתיה״ (Telepahy) ותיועד לאנשים שאיבדו את היכולת להזיז את הגפיים.
לאט לאט, הכל מתחבר >>
המונח המטורף כאן הוא הBrain Interface.
האמת, זה ממש אינטואיטיבי. הדרך שלנו לתקשר עם הטכנולוגיה היא דרך מתווך. יותר נכון מתווכות - הידיים והאצבעות שלנו.
המוח שולח שדר אליהן, הן מעבירות את השדר למכשיר שבתורו מחזיר שדר שנקלט בעיניים או באוזניים שלנו - וחזרה למוח.
המשימה של >>
ֿֿ
ניורולינק היא החלום הרטוב של כל קונספירטור מצוי.
השתלת שבב במוח שיחסוך את המתווכות, ויאפשר לנו לתקשר עם הטכנולוגיה שלנו בכוח המחשבה.
נשמע בדיוני, אבל על פניו - הסיגנל 100% נמצא שם במוח.
מה שצריך הוא לחלץ אותו ולהשתמש בו, ״זה הכל״.
שבב. ממש שבב. >>
שמעתם על גאדג׳ט הAI החדש?
גם אני.
הרמתם גבה?
גם אני.
אז באיחור של שבועיים, בואו נדבר רגע על הדבר הזה.
קשקוש, או העתיד? 🧵>>
(אה כן, אם שמתם Bookmark - תוסיפו איזו הקלקת לייק, זה סופר עוזר לי 🥰)
1. נתחיל בטכני.
מדובר על מכשיר קטן בעלות 199$ שמתפקד קצת כמו אלכסה, סירי או גוגל אסיסטנט.
המסך הוא מסך מגע, יש בו גם סוג של גלגלת אנלוגית ומצלמה 360 מעלות נשלפת כדי שהטמגוצ׳י הזה יוכל גם לראות את העולם.
למכשיר קוראים r1, או בשמו המלא כולל החברה שמייצרת אותו: rabbit r1 >>
2. הרעיון, אם לא ראיתם את הדמו הארוך, הוא שכל התקשורת איתו מילולית.
״תזמין לי אובר למחר״, ״תמצא לי חופשה, רכב ומלון בלונדון במרץ״.
הוא ישלח ״ארנב״ לרשת, יחפש, יזמין ויתן לכם לאשר.
הוא יתפקד גם כChatGPT קולי, תשאלו שאלה, הוא יענה.
זמן המענה קצר להחריד. הם מדברים על פחות מחצי >>