דעה: בינה מלאכותית היא לא פתרון קסם - לא רק לקורונה

שמירה על אמינות מערכות הבינה המלאכותית ווידוא תקינותן זהו נושא שחייב להיות על סדר היום בכל ארגון שמאמץ את הטכנולוגיה המדהימה הזו

בינה מלאכותית / צילום: Shutterstock, א.ס.א.פ קריאייטיב
בינה מלאכותית / צילום: Shutterstock, א.ס.א.פ קריאייטיב

קראתי בימים האחרונים כתבה מעניינת ב"וול סטריט ג׳ורנל" שמדברת על האכזבה המסוימת מטכנולוגיות הבינה המלאכותית לסייע בשליטה על התפרצות מגפת הקורונה. אנחנו הרי חיים בשנת 2020 ולפי כל הסרטים ההוליוודיים היינו מצפים מכמה רובוטים ומחשבי על לקחת שליטה במצב ולפתור את הבעיה במהירות.

אז מצד אחד, כן, אנחנו בעידן שבו בינה מלאכותית נמצאת מסביבנו ומסייעת לחיים ולעסקים שלנו בהרבה מאוד היבטים שוטפים: תכנון מסלול נסיעה אופטימלי בהינתן עומס התנועה הצפוי (וויז), המלצות לתוכן שיעניין אותנו (נטפליקס) או למוצרים שבאמת נשמח להכיר ולקנות (אמאזון), ניתוח מחקרים קליניים, תעדוף של הזדמנויות מכירה, שירות לקוחות אוטומטי ועוד. ואנחנו רק בתחילת הדרך. אם צריך להעריך, אנחנו כנראה נמצאים ב-20% מהדרך. ארגונים ועסקים שאימצו בינה מלאכותית מדווחים על שיפורים עצומים שמשפיעים בכל מדד אפשרי: הכנסות, שביעות רצון לקוחות, רווחיות ועוד.

מצד שני, בינה מלאכותית היא לא קסם. למעשה, היא לא הרבה יותר משימוש באלגוריתמיקה, סטטיסטיקה ומתמטיקה כדי ללמוד מאירועי העבר כיצד להעריך ו"לחזות" את העתיד. כאן בדיוק נמצא עקב אכילס של הטכנולוגיה המדהימה הזו. כשאין נתונים ותצפיות קודמות שמתאימים לבעיה שמנסים לפתור, האלגוריתמיקה פשוט לא תדע לעבוד בצורה טובה.

אם נחזור לקורונה, אין שום היסטוריית נתונים על תופעה דומה, לא על התנהגות הווירוס ולא על מנגנוני ההתפשטות וההדבקה שכמוהם לא ראינו בעת המודרנית. גם הנתונים שיש לא תמיד אמינים וחלקיים למדי, מסיבות פוליטיות, ביטחוניות וכלכליות. לאלגוריתמי הבינה המלאכותית אין ה"דלק" הנדרש כדי לחזות מה מחכה לנו באופן יעיל.

בשנים האחרונות שמענו על ה"שיבוש הדיגיטלי" שיצרו שחקנים מבוססי דאטה ומערכות דיגיטליות בכל סקטור אפשרי. כדי להישאר רלוונטיים וכדי לבנות יתרון תחרותי, השחקנים המסורתיים עברו (ועדיין עוברים) טרנספורמציות עסקיות ומבססים את התהליכים העסקיים שלהם יותר ויותר על מערכות דיגיטליות מבוססות דאטה. יהיה די בטוח לנחש שאין ארגון שבו המושג BIG DATA לא קיבל מקום של כבוד ברשימת הפרויקטים האסטרטגיים.

עם הקפיצה הטכנולוגית הזו, מגיע גם שינוי תפיסה עבור המנהלים העסקיים. במובן מסוים, הם מאבדים שליטה על החלטות קריטיות ונסמכים יותר ויותר על ההמלצות וההחלטות של אותן המערכות. מנהל השיווק מוצא את עצמו מול דשבורדים שמסבירים למה כדאי להשקיע כרגע בסגמנט כזה ולא באחר, מנהל הסיכונים בבנק רואה ניתוחים לגבי גובה האשראי והסיכון שנגזר מהלוואות שאושרו תוך שימוש בבינה מלאכותית, מנהל המכירות בארגון שולח את האנשים שלו להתמקד ברשימה שיצאה כפלט ממערכת שמצליבה מאות פרטי מידע ומחשבת את תעדוף העסקאות הפוטנציאליות בצורה אוטומטית.

אבל מה אם ההחלטות האלה התקבלו על סמך נתונים שהמערכת לא הכירה קודם? מה אם אחד המתחרים של הבנק עורר סגמנט חדש בשוק שלא היה פעיל עד היום בבקשת הלוואות? מה אם אותו סגמנט משקף התנהגות שונה לחלוטין ממה שהאלגוריתמים למדו עד היום? תוך כמה זמן נגלה את גודל הטעות?

במחקר שערכה חברת IBM לאחרונה עלה ש 78% מהנשאלים הגדירו את האמינות כנושא העיקרי שעלול לעכב אימוץ של טכנולוגיית בינה מלאכותית.

כמו בכל תהליך שינוי, השלב הראשון מתחיל בהכרה של גודל הבעיה והרלוונטיות שלה. אירועים כמו וירוס הקורונה תופסים את תשומת הלב של כולם ומכריחים בדק בית יסודי לכל תהליך אוטומטי. אבל שינויי התנהגות קורים כל הזמן, בהיקפים קטנים יותר, ולרוב - נסתרים מהעין האנושית.

שמירה על אמינות מערכות הבינה המלאכותית ווידוא תקינותן היא נושא שחייב להיות על סדר היום בכל ארגון שמאמץ את הטכנולוגיה המדהימה הזו. בעולם שבו המערכות מוצפות בנתונים ממקורות שונים ומשונים, כל ארגון חייב לוודא שהנושא מטופל היטב בכלל ההיבטים:

אנשים. הגדרה ברורה של תחומי האחריות האופרטיביים - מי אחראי על תקינות מערכות הבינה המלאכותית ברגע שאלה כבר בשימוש ויצאו משלב המחקר?

טכנולוגיה. אילו כלים ויכולות יש לאמץ כדי לאפשר זיהוי מהיר ומדויק של אותם גורמי סיכון שעלולים להשפיע על תקינות המערכות.

תהליכים. איך נראה תהליך הטיפול באירועים כאלה ואיך נבטיח שמרגע שזוהה סיכון כזה או אחר, הפגיעה העסקית תהיה מינימלית. 

הכותב הוא מנכ"ל ומייסד שותף בחברת Superwise.ai שפיתחה פלטפורמה המוודאת שמערכות הבינה המלאכותית עובדות בצורה תקינה