Data Science המסלול להייטק – חיפוש עבודה ב-AI עם ישראל וייס
ישראל וייס מספר על איך למצוא עבודה ראשונה ב-data science. הוא משתף מנקודת המבט של המסלול שלו בחיפוש עבודה בתחום. הוא בוגר תואר בהנדסת חשמל באוניברסיטה העברית, ודאטה סיינטיסט מנוסה.
אייל סגל: ברוכים הבאים לעוד פרק במסלול ההייטק, והיום נדבר עם ישראל וייס – data scientist. על התחום, איך הוא התגלגל אליו. דיסקליימר קצר: מה שעובד לאדם אחד הוא לא בהכרח מה שיעבוד לאחר
הבסיס לחיפוש עבודה של תחום ה-data sceince ותחום ה-AI עבור ישראל וייס
ישראל וייס: אז אני התחלתי לעבוד בתת התחום של דאטה סיינס – computer vision לפני בערך שנתיים.
הגעתי לעבוד ב-computer vision תוך כדי הלימודים באוניברסיטה העברית. הבנתי שזה מה שמדבר אליי.
אני למדתי הנדסת חשמל ומחשבים. למדנו יותר לכיוון החומרתי ואפילו הפיזיקלי.
במהלך התואר בהנדסת חשמל הבחנתי שהתואר הדיפולטיבי מעניין אותי פחות.
עם זאת, אמרתי: ״נסיים כבר את התואר כמו שהוא״.

קורסים באוניברסיטה למקצועות ה-data science
ניסיתי להוסיף עוד קורסים שיש לאוניברסיטה להציע; כי לאוניברסיטה עצמה יש הרבה כלים שיכולים לעזור. אז הוספתי קורסים שעניינו אותי. הקורסים מובילים לתחום הזה של בינה מלאכותית או ראייה ממוחשבת. התחלתי בעיבוד תמונה שזה הבסיס לתחום. זה גם קורס מצוין באוניברסיטה העברית.
משם המשכתי לקורס של מערכות לומדות. בזמנו לימד אותי שי שליו שוורץ האגדי.
אחר-כך קורס של עיבוד תמונות רפואיות. בקורס הזה למדתי קצת יותר טכניקות קלאסיות של עיבוד תמונה לשימושים רפואיים.
בעיקר סגמנטציות ורגיסטרציות שאפשר להרחיב על זה בדיון אחר.
הערה שלי – אייל סגל: נכון לעריכת שורות אלו, אני עובד בחברה שזה התחום שלה. היא – aidoc medical גם ממש טובה וכנראה גם מחפשים בה עובדים. יונית לב מאיידוק עובדת אתי :).
אבל אלה בסופו של דבר זה הקורסים הבסיסיים שעשיתי.
הקורסים פתחו לי את התיאבון.
הבנתי בזכותם שאמנם הקורסים לא מספיקים כדי להתעסק עם זה מעבר בתעשייה עצמה.
הבנתי שאני צריך להיות HANDS ON והתחלתי ללכלך את הידיים.
קורס עיבוד תמונות רפואיות באוניברסיטה העברית כניסיון ב-data sceince
הדרך הייתה הקורס האחרון שעשיתי, מתוך שרשרת של עיבוד תמונות רפואיות. שאלתי את המרצה אם יש קורס כזה.
משהבנתי שאני יכול ללמוד את הקורס ״מעבדה בעיבוד תמונות רפואיות״ – הבנתי שזה בעצם פרויקט מחקרי.
כזה שלוקח כמה חודשים טובים – (באזור החצי שנה פלוס מינוס).
היות שהיה לי מספיק זמן ודי הצלחתי בקורס הזה בזמנו, ודיברתי עם המרצה. היה חיבור אז הוא הכניס אותי למעבדה.
בסופו של דבר עשיתי פרויקט מעשי. הפרוייקט שילב רשתות נוירונים, מחקר רפואי, בשילוב עם בית חולים הדסה עין-כרם.

פרוייקט בהדסה עין-כרם כניסיון עבור עבודה ב-Data Science
זה היה פרויקט מעניין ברפואת עיניים. יצרתי בצורה אוטומטית סגמנטציה של גידול של מחלת עיניים כלשהי.
כיום הרופאים מסמנים את המחלה בסריקות עיניים. הסימון גוזל הרבה זמן.
זמן הוא המשאב הכי יקר לרופאים. אז עשיתי בסופו של דבר אחרי הרבה עבודה מחקרית.
בסופו של דבר יש נוירונים שהפלט שלהם זה סימון דו מימדי. בכל הסריקות של הגידול של המחלה עצמה.
וזה פרויקט שלקח הרבה זמן באזור השמונה חודשים קצת פחות משנה.
היתרונות והחסרונות בפרוייקט בעיבוד תוכנה למציאת עבודה ראשונה ב-data science
הכיף בפרוייקט הוא שידעתי לאיזה תוצר ארצה להגיע. אבל הדרך לשם הייתה לא ידועה. זה היה מחקר טהור במובן הזה.
כאילו היה אתגר מבחינת דאטא לעבוד איתו. אז לנסות לחשוב איך להשתמש בשיטה מספיק רובסטית עם מעט דאטא.
בנוסף, תמיד רוצים לעשות משהו שלא עשו בעבר. הרי לא לומדים כלום מלעשות את מה שכבר יש לו פיתרון בגיטהאב. במילים אחרות – זה לא שחיפשתם את זה באינטרנט ועשיתם לזה אדפטציות. אלא פתרתם בעיה בכוחות עצמכם.
בצורה שעוד לא עשו בעבר. זה בסופו של דבר מה שנותן לך כלים משמעותיים. מוכיח שעבדת עם data משמעותי. שפתרת את הבעיה בצורה מיוחדת. בצורה שלא עשו דומה בעבר.זאת הייתה פריצת הדרך הראשונית לתחום. התחלתי אחרי זה בראיונות. עבדתי חודשים אחר-כך בסטארטאפ צעיר.
בתחום הרפואי זה מן הסתם קצת פחות נגיש. גם ברמת ה-data עצמו, וגם ברמת הבעיות עצמן.זה משהו שפחות נגיש לעבוד איתו על מחלות ספציפיות לפעמים. אז בהקשר הזה היה לי מאוד נוח לעבוד בפלטפורמה של האוניברסיטה.
ליווי אוניברסיטאי ב-data science, ב-computer vision עיבוד תמונה רפואית
הליווי העניק קרקע:
- דאטא שיכולתי לעבוד איתו
- מרצה שמלווה אותי
- כל המעבדה עצמה
בנוסף, הסטודנטים של תואר שני ודוקטורנטים תמכו בי. בין אם בקשיים טכניים או התלבטויות במחקר עצמו.
אז זה נתן לי אחלה פריצת דרך ראשונית, גם התוצאות היו טובות. זה מסוג הדברים שברגע שעושים אותם בצורה לא-טריוויאלית, כלומר – מיוחדת.
התחום של מי שליווה אותי, לואה יוסקוביץ׳ הוא בעיבוד תמונה יותר קלאסי. הוא תומך ברשתות נוירונים ובינה מלאכותית ובשימוש בהם.
הוא מעודד את הסטודנטים במעבדה ובמחקר להשתמש בכלים האלה. אבל הוא לא בא מהתחום הזה. הרקע המשמעותי שלו והליווי שלו הוא יותר בתחום הקלאסי של ראייה ממוחשבת. הוא עובד עם אלגוריתמים קלאסיים (סגמנטציה למשל) ולא בהכרח רשתות נוירונים ובינה מלאכותית. לכן הוא ליווה אותי מחקרית בעיקר. על אף שתרם כלים נוסח “אוקיי, ניסינו גישה א ב ג. הגישה הזו לא עבדה בואו נחשוב איך אפשר לתקוף את זה מכיוון אחר”.
בקטע המחקרי הוא נתן לי כלים מדהימים. וגם קצת בקטע של ניסוי ותהייה מסטודנטים שעובדים אצלו. אבל עיקר הליווי המשמעותי שלי בתחום של בינה מלאכותית דווקא היה ממאסטרנטים ודוקטורנטים במעבדה. להם יש באמת את הידע המעשי יותר.
אייל סגל: מה הופך את הידע שלהם למעשי? כלומר הידע שלהם מגיע לא רק ממקומות אקדמיים. או שהידע כאן ממקומות אקדמיים הוא גם מעשי?
כלים טכניים בבינה מלאכותית ו-data science
ישראל וייס: אתה יודע, בסופו של דבר המתמטיקה מאחורי היא חשובה והכל בשביל לדעת את הכלים שנרצה להשתמש בהם. אבל אם יש טכניקה מסוימת שנרצה להשתמש בה, נצטרך להכיר את המגבלות שלה. אז זה פשוט דבר שנתקלים בבעיות שהן תכנותיות וטכניות. בסופו של דבר לא נוכל להתעסק בבינה מלאכותית בלי שיש לנו הכלים הטכניים: התכנות עצמו ברמה הפייתונית הרגילה ביותר, וגם אם זה בכלים טכניים – DEVOPS-יים. שבהם – לא משנה אם יש לנו תואר ראשון, תואר שני או דוקטורט או פרופסור ניתקל בהם בעבודה הטכנית. עד שלא ניישם את זה בידיים אתה לא נוכל לפתור אותן.
גם בלימוד AI ו-data science נצטרך להכיר פייתון טוב
למשל, אתה מאמן את המודל על LOSS. אנחנו רוצים בסופו של דבר כשאנחנו מאמנים מודל למזער את פונקציית ה LOSS . באמצעות אופטמיזציות: למשל של GF, ADAB.
במהלך האימון יכול להיות שאתה נתקל ב LOSS שנהיה NONE או ערך בעייתי ערך.
עכשיו, להבין מאיפה הבעיה הזאת שה-LOSS נהיה NOT A NUMBER.

יכולות להיות לזה כמה סיבות. לנסות להבין, למצוא את שורש הבעיה זו בעיה מאוד טכנית, אז כאילו לבוא למרצה.
AI, אז קודם כל יש לנו ידע טכני כמו להכיר את פייתון.
הבסיס הטכני ל-AI ו-Machine Learning
ישראל וייס: עכשיו משם הכלים הבאים זה כבר לקחת את זה לראייה ממוחשבת
אייל סגל: שניונת, אבל הטכני הוא גם מפורק לעוד דברים חוץ מפייתון אני מאמין
ישראל וייס: זהו, אז הנקודה היא האם אתה לוקח את זה כאילו.. יש מגוון ספריות לאימון רשתות נוירונים ובינה מלאכותית. למשל TENSOFLOW, פייתון, יש מלא ספריות שאפשר להתכוונן אליהן.
אז אמרנו מעבר לפייתון יש נגיד כלים אפשר להגיד, ספק DEVOPS-ים, ספק LINUX-ים.
והרי, העבודה בתחום היא על קבצים. נרצה לעשות עליהם מניפולציות בצורה נוחה. אין סיכוי לעבוד על כל זה ידני.
באמצעות פקודה בלינוקס לחלק את התיקיות נגיד לאחוזים מסוימים – אתם תרצו לפצל את הדאטא ל-train test validation. נגיד סתם אני זורק, תיקיות מסוימות. יש לנו הכלים האלה, זה מבחינה לינוקסית שאתה חייב לשלוט בצורה נוחה שיקל לך על החיים.

כלים devops-יים בעבודה ב-data science וב-AI
מבחינה DEVOPS-ית כשאתה מאמן מודל זה לא משהו שנשאר בגבולות ה RESEARCH.ברוב המודלים התיאורטיים, בעיקר בהקשר תעשייתי מטרתו להכניס כסף. זה ייכנס למוצר בצורה כלשהי בין אם זה כאפליקציה. בין אם בסרבר מסוים. בין אם על מחשב של לקוח, זה חייב מה שנקרא לצאת מגבולות ה”אוקיי, כתבתי קוד מסוים שאני יכול להריץ את הקוד הזה ב IDE ואוקיי עכשיו זה רץ אצל לקוח”. אז יש גם הפער הזה של ה-deployment. חלק חשוב בתהליך הזה של הפיתוח מודלים בדאטא סיינס.
זה כלים שלדעתי קצת קשה לרכוש באקדמיה, לפחות מההתנסות שלי. לא לומדים מספיק ענייני דוקרים, HOOPFLOW, זה דברים שכזה אפילו בשנתונים מסוימים לא מספיק נותנים כלים של גיטאהב מספיק, וזה דברים סופר בסיסיים שאין מצב שכל מתכנת במשרת דאטא סיינס לא שולט בהם, וכלים דוקרים למיניהם זה כלים מדהימים שפשוט עוזרים לך וחוסכים לך זמן משמעותית, ואם אתה תמיד בסופו של דבר אתה מאמן מודלים אתה צריך את הספריות האלה, וה DEPENDENCIES בין ספריות.
אם אתה מבזבז זמן על התקנות למיניהן ואלוהים יודע כמה זמן יש לך לבזבז על התקנות, אתה צריך לאמן איזה DENVOFLOW על גרסת קודא מסוימת, על GPU מסוים, שטויות כאלה. רק ההתקנות האלה יכולות לקחת מלא זמן, אז שליטה בכלים דוקרים למיניהן גם מאוד עוזרת, בסופו של דבר זה אוסף של כלים שעוזר לך להתמקד בעיקר.
כלים טכניים בלימוד AI
ישראל ווייס: כן אני חושב שחשוב מאוד יחד עם כל הפרקטיקה שאמרנו:
- הפייתון
- שליטה בספריות של מודלים שונים מ SKLR ל-PYCHARM
- כלים לינוקסיים
- כלי deployments
אני לא חושב שריאלי שתצללו ישר ל-HANDS ON מעשי בלי לדעת את התיאוריה מאחורה. זה תחום שנשען מספיק חזק על עקרונות מתמטיים. בין אם זה אלגברה לינארית, עד לכלים של חדו״א (למשל חישוב נגזרות). תצטרכו להכיר את העיקרון שעומד מאחורי כל אופטימיזציה.
יהיה מצב שאתה לא יודע את התאוריה מאחורי זה כי בסופו של דבר אפשר לעשות כל כך הרבה שטויות בפרקטיקה שאם אתה לא יודע את התיאוריה שמאחורי זה, את מה המגבלות של האלגוריתם, האם אתה באופטימיזציה מסוימת אתה מניח שהפונקציה היא (לא מובן) או לא, או שנגיד אם אתה משתמש באופטימייזר מסוים למה בחרת באופטימייזר הזה ולא באופטימייזר אחר? כאילו יש הרבה עקרונות שאם אתה עושה אותן על עיוור, אז כשאתה נתקל בבעיה ותמיד תיתקל בבעיה שהמודל לא תמיד טוב או בעיות טכניות כאלה ואחרות אתה לפעמים לא תודה מה השורש של הבעיה אם אתה לא מכיר את התאוריה מאחורה.
בקטע הזה אל תקצרו את הדרך. וכן – תשקיעו בקורסים רציניים. בין אם זה באקדמיה או בקורסים אחרים שחשופים היום באינטרנט כבר יותר. לי אישית הפלטפורמה של האקדמיה הייתה מאוד נוחה מהבחינה הזאת. כי נותנים כלים מרצים ברמה טובה. וכמה שאני למדתי בעברית, וכמה שבעברית מאוד משקיעים בקטע התיאורטי, כן בכל הקורסים הרלוונטיים יש הרבה מאוד התנסות מעשית, אני מאמין ש..
אייל סגל: אוקיי. אז בעצם הנדבך הראשון זה להכיר את הכלים הכי הכי טכניים שזה אומר להכיר את הכלים ה DEVOPS-יים, דוקרים, להכיר גיט. ההתחלה מאיך לעשות EXCLUDE לקבצים עד איך עושים COMMIT נכון. הנושא של דוקר והרצת סביבה. במקביל אנחנו מדברים על כלים טכניים: תלמדו פייתון. תכירו מבני נתונים ואלגוריתמים.
ריאיונות עבודה ל-data science
מה שואלים בריאיונות עבודה ל-data science?
״לא בהכרח ישאלו אותך בראיון data science על עץ אדום-שחור. זה לא בהכרח שהקבלה לעבודה תקום ותיפול על איזה אלגוריתם ספציפי אם הכרת או לא. אבל זה אוסף כלים.
אייל סגל: מפתיע. בוא נדבר על ראיון עבודה. על מה כן בן אדם ייפול?
ישראל וייס: אני חושב שהשאלות הכי נפוצות שאוהבים ב-data science הם על פרויקט שעשית.
ממש שואלים: “אוקיי, למה בחרת בגישה הזאת? מה היתרונות שלה, מה המגבלות שלה?”
אם נגיד שיתפת את הקוד וראו שאוי, ראיתי שהשתמשת באופטימייזר בשם ALADA, אתם יכולים לספר לי איך הוא עובד? מה המגבלות שלו, מה היתרונות שלו? גם הרבה פעמים שואלים בתחום של דאטא סיינס.. זה תחום שדורש שתתעדכנו בדברים שעדיין מתחדשים. בין אם זה במאמרים חדשים בתחום. הם יכולים לשאול אם קראת איזה מאמר מעניין ולספר עליו נגיד, ככה מבינים איך אתה מבין לעומק מאמר ואיך אתה יודע להסביר אותו
בראיונות יכולים לזקוף את זה או בקטע של בעיה שאתה עבדת עליה ואז לרדת לרזולוציה. או לתאר לך איזו בעיה במאקרו: ״יש לך איזה מטע תפוזים. יש לך איזה DRONE שמצלם ברזולוציה מסוימת את התפוזים
מתארים לך גודל תמונה מסוים. ושואלים, למשל – באיזו גישה היית בוחר שירוץ מספיק מהר. נגיד שיעשה OBJECT DETECTION לתפוזים, ושיהיה מספיק מהיר. כזה סתם תתאר לי את כל התהליך. אבל לא סתם להציג לי המודל. גם תן לי את כל התהליך שאתה עושה מההתחלה שאתה מקבל את הדאטא לעבוד איתו.
בריאיונות עבודה להייטק מצפים לפירוט
מצפים לפירוט ברמה של מה נעשה: כשנקבל את הדאטא, וההמשך. רק מהתהליך הזה שיש בעיה כלשהי ולראות איך אתה מתמודד איתה. לומדים הרבה על כמה מועמד מבין או לא מבין. אי אפשר סתם לזרוק מודל ויהיה בסדר: נצטרך להבין את הדאטא. לקבל ממנו insights. לקבל סטטיסטיקה על הדאטא. בכל מיני גרפים שמבינים מהם איזה סוג דאטא יש. לפני ש״נזרוק״ עליו מודל מסוים ומקווה לטוב, אם אתה לא רואה בעיניים את הסטטיסטיקה גם במאקרו וגם דוגמאות מסוימות אז אתה לא באמת יכול לפתור את הבעיה בצורה טובה. אז גם בעיות כאלה נותנים – מתארים לך בעיה כלשהי ואתה צריך לתאר את כל הדרך שאתה פותר מההתחלה ברמה הכי.. מרמת הדאטא נגיד מהתעסקות בדאטא עצמו. כן יש שאלות תיאורטיות כאלה שכן באמת שואלים.
אצלי בחברה הנוכחית שאני עובדה בה – GREENEYE, זה היה פשוט תהליך שאני מניח שברוב החברות זה תהליך שלוקח כמה וכמה איטרציות. התהליך מתחיל ברוב החברות מהניסיון שלי באיזו שיחה טלפונית שבה מכירים את המועמד. מה הרקע שלו. המגייסים בודקים אם רלוונטי שיזמינו מועמד לראיון עמוק יותר.
המשמעות ראיון עמוק יהיה יותר מקצועי. יהיו גם שאלות תכנותיות שבוחנות חשיבה לוגית ותכנותית. הבכרח תהיה התעסקות עם מבני נתונים וגם לוגיקה של תכנות. שאלות מקצועיות בנושא של MACHINE LEARNING, DEEP LEARNING.
אני מניח שגם בתחום שהחברה עובדת בו, אצלנו זה תחום של ראייה ממוחשבת. אז זה נעשה בתחום של עיבוד תמונה כללי. כי אין סיבה על כל דבר לזרוק ישר DEEP LEARNING. יש דברים שאפשר לפתור מספיק טוב גם בטכניקות קלאסיות – אז חשוב להכיר טכניקות בדומיין שלך. וגם הרבה פעמים נותנים תרגיל בית מסוים.
התעדכנות בחידושים של AI
ישראל וייס: אני עבדתי רק בסטארטאפים. שני סטארטאפים עד עכשיו. בשניהם מאוד רוצים להתעדכן בתעשייה ובדברים שמתחדשים. אני חושב שיש הרבה סטארט-אפים שמאמינים בגישה הזאת. בסופו של דבר אם יש לך איזה רשת מסוימת, נגיד ל-OBJECT DETECTION . כל הזמן משפרים את זה עוד ועוד ועוד. אז אם יש לך מוצר שמשתמש ברשת מלפני שנה – יכול להיות שיש דברים שכל כך ישתפרו מאז. בין אם זה במהירות, בין אם זה בדיוק. אם לא נתעדכן אז המוצר בסופו של דבר לא מספיק טוב. ואם הוא לא מספיק טוב אז יש מתחרים יותר טובים. אז בהקשר הזה כן חשוב להיות מעודכנים עם טכניקות חדשות שתמיד מתפתחות.
אייל סגל: אוקיי. מאיפה אגב אתה מתעדכן בחידושים?
מקורות להתעדכן בחידושים על AI ועל Machine Learning
ישראל וייס: אז בהקשר הזה אני מאוד נהנה מקבוצת הפייסבוק MACHINE & DEEP LEARNING ISRAEL. יש בה אחלה חבר’ה שמדי פעם מפרסמים מה העניינים.
לפעמים יש דיון על מאמרים – האם הם מחדשים או לא. אם הוא מעניין. זה מקום שאנשים מתייעצים בו גם בנושאים טכניים. גם בקבוצה MACHINE LEARNING ISRAEL אנשים מתארים את הבעיות שלהם. בדומה ל-STACKOVERFLOW, רק ישראלי וספציפי ל AI. יש שם אנשים חריפים שנותנים אחלה טיפים. לי גם יצא לכתוב גם שאלות גם תשובות שם, אז אחלה קהילה, וגם בדרך כלל יש להם אחלה ג’וב בואורד, כאילו יש להם כזה באתר שלהם רשימה של משרות שמתעדכנת כל שבוע, עכשיו בקורונה הם עוד יותר מדגישים את החלק הזה של המשרות, גם החברה שלי עכשיו מפרסת שם. אז זו בהחלט אחלה פלטפורמה גם להתעדכן.
תרגילי בית לעבודה ב-data sceince
תרגיל בית זה עניין טריקי. בחלק מהחברות אפשר לפרוס את זה לכמה ימים. יש מועמדים שיישאבו לתרגיל הבית ב-data science.
הגישה שלי לגבי תרגילי בית: כמו האקתון. נגיע כמה שיותר מוקדם לבסיס שעובד. לאחר-מכן נשפר אותו. מה שנקרא: ״לסגור מעגלים קטנים״.
זה קשה לאמץ גישה כזאת כי יש לך בראש את התמונה המלאה. אבל אם עכשיו תנסה מ א’ להגיע בבת אחת לפתרון המלא בזמן שמוקצב לך לא בטוח שתצליח. עדיף להגיע לפתרון מעטפת – בייס ליין. אז, משם נוכל לשפר אותו לאט לאט עם עוד ועוד צעדים. וזה משהו שכן רלוונטי בהרבה תרגילים של דאטא סיינס. כי כן אתה בסופו של דבר תפתור בעיה מסוימת עם כלים מסוימים תחת הגבלות.
הכנה לתרגיל ב-Machine Learning
כדאי שתתכננו את העבודה עקב בצד אגודל. לא בבת אחת להגיע לפתרון המושלם. אלא לעשות שיפורים מתמידים. לא סביאתה לא תצליחו להגיע למשהו מושלם במסגרת הזמנים שקיבלתם למשימת בית. יודעים שיש למועמד את המגבלות שלו, אבל כן חשוב לעשות את כל ה.. מצד אחד כן מה שאמרתי להתחיל עם פתרון שעובד יחסית מספיק טוב ורק אז לשפר אותו.
מצד שני עדיף לא לצלול ישר למימוש. אלא להשקיע מספיק זמן בתכנון עצמו. כמעט תמיד בראיונות ובעבודות בית של דאטא סיינס תצטרכו לעבוד עם דאטא. אז תסתכלו לעומק על הדאטא: אם זה סטטיסטיקות, דיאגרמות, התפלגויות שונות.
אייל סגל: כשמתארים לך בעיה ואתה צריך לפתור אותה, אוקיי. אז האמת שנתת איזושהי מעטפת כללית, גם לדעתי לאנשים ששומעים את הפודקאסט הזה והם לא רוצים משרה דווקא בדאטא סיינס. ככה נכון לפתור מבחן בית באופן כללי – לא לצלול ולצלול, הרבה פעמים גם הדברים הפשוטים ביותר בכל תחום אפשר לעשות אותם בשיטה אחת בשעה עבודה, ובשלוש שעות ובעשרים שעות. תתחילו בדרך הפשוטה ואחר כך תמיד לשכלל.
וכמו שאני אומר בגישה שלי לכל עולמות הכניסה להייטק, להתייחס לעניין הזה של כניסה לעבודה ראשונה כאיזושהי אסטרטגיה, מנסים מהרבה מאוד כיוונים בלי לירות לכל הכיוונים, אלא ממש להתעניין ולבנות את זה. אז ישראל סיפר בפודקאסט איך הוא בנה את זה.
יש לך טיפים נוספים?
ישראל וייס: אני חושב שדיברנו לרוחב . אבל בסופו של דבר זה עניין של פאשן.
אפשר להגיע היום לדאטא סיינס ממלא תחומים. יש בוטקאמפים. זה תחום שהביקוש אליו עולה.
אפשר להגיע אליו במלא-מלא דרכים. ולכן תתבלטו מעל אחרים.
תחרויות data science
מעבר לכך – ליצור איזה פרויקט יחסית משמעותי. ההתעדכנות הזאת במאמרים היא מאוד יכולה לעזור. כן גם לא נגענו במשהו קטן שכן שכחתי לדבר עליו: אתר קגל – KAGGLE. זה אתר עם תחרויות בתחום של data science. זו גם פלטפורמה לקבלת כלים מעשיים לפתרון בעיות.
יש שם הרבה הרבה דאטא סטים והרבה מאוד אתגרים מסוימים בהרבה תחומים. לא בהכרח בתחום של ראייה ממוחשבת, שזו אחלה דרך לקבל ניסיון ראשוני מעשי. ללכלך את הידיים על בעיה מעניינת. יש שם גם פרסים כספיים. אני לא חושב שאתם צריכים לשאוף לפרס הכספי. יש שם אנשים מאוד חריפים שקשה להביס אותם, אבל רק מלהתברג אתה יודע בטופ עשר הזה יש בזה משהו שגם יכול להיות מאוד מספק. אז זו גם אחלה פלטפורמה שלא נגענו בה וגם כדאי מאוד להכיר ולנסות גם.
