האם הבינה המלאכותית יכולה לסייע במניעת תקריות סייבר? כן, אבל יש גם כוכבית

בעולם מעריכים שעד 2027, הנזק שייגרם לארגונים מפריצות סייבר יגיע ל־24 טריליון דולר - יותר מפי שניים מהיום • הסיבה: ריבוי טעויות אנוש • רבים מקווים שהבינה המלאכותית תצמצם את הנזק, אך לא מודעים לחסרונות שלה - ולטעות שלהם במתן אמון יתר בכלי

האם הבינה המלאכותית יכולה לסייע במניעת תקריות סייבר? / צילום: Unsplash, gilles-lambert עיבוד: טלי בוגדנובסקי
האם הבינה המלאכותית יכולה לסייע במניעת תקריות סייבר? / צילום: Unsplash, gilles-lambert עיבוד: טלי בוגדנובסקי

אודות מגזין הניהול של הרווארד (HBR)

מגזין הניהול של אוניברסיטת הרווארד יוצא לאור מזה מאה שנה ומאגד מאמרים מבוססי מחקר ונתונים. עם כותביו נמנים מיטב המומחים הבינלאומיים לניהול ולעסקים במגוון תחומים, ובהם מנהיגות, משא ומתן, אסטרטגיה, שיווק, כספים ותפעול. מאמרי Harvard Business Review מתורגמים ומתפרסמים בגלובס שלוש פעמים בשבוע: בימים שני, רביעי וחמישי (מגזין G).

אודות הכותב

תומס צ'מורו־פרמוזיק הוא פרופסור לפסיכולוגיה עסקית באוניברסיטת קולג' בלונדון ובאוניברסיטת קולומביה. הוא מומחה בינלאומי בניתוח אנשים, ניהול כישרונות וממשק עם בינה מלאכותית

הנזק מפריצות סייבר צפוי להגיע ל־10 טריליון דולר בשנת 2023 ולהיות גדול יותר מהתמ"ג של כל המדינות בעולם, להוציא ארה"ב וסין. מעבר לכך, ההערכה היא שהנתון הזה יעלה לכמעט 24 טריליון דולר בארבע השנים הבאות.

האיום הגדול מכולם הוא טעויות אנוש, האחראיות לכ־80% מתקריות הסייבר בעולם. זאת, על אף העלייה בהכשרות סייבר ארגוניות בעשור האחרון, והמודעות הגוברת והקטנת הסיכונים לרוחבן של חברות ותעשיות. האם כלי הבינה מלאכותית (AI) יכולה לסייע בהתמודדות עם הבעיה? ואם כן, מה היתרונות והחסרונות של הישענות על אינטליגנציית מלאכותית אל מול התקפות סייבר?

תוך פחות מעשור: צמיחה מוערכת של 775%

באופן לא מפתיע, יש כיום עניין רב ב־AI, ועל פי הערכות בענף הסייבר, מנועי ה־AI יצמחו מ־4 מיליארד דולר ב־2017 לכמעט 35 מיליארד דולר עד 2025. הכלים האלה מאפשרים, בין השאר, שימוש בלמידת מכונה, למידה עמוקה ועיבוד שפה על מנת להקטין פעילויות זדוניות ולזהות אנומליות בסייבר, תרמית או ניסיונות חדירה. רוב הכלים האלה מתמקדים בחשיפת שינויי דפוסים באקוסיסטם של דאטה, כמו עננים של חברות, פלטפורמות ומאגרי דאטה, עם רמת רגישות שלרוב חומקת מעיניהם של בני אדם.

לדוגמה, אלגוריתמים של למידת מכונה יכולים לסווג התקפות באמצעות הדואר האלקטרוני ברמת דיוק של 98%, לזהות מתחזים על בסיס סיווג אנושי או קידוד ברמת דיוק של 99.9%. לגבי עיבוד שפה, הבינה המלאכותית מציגה רמות גבוהות של זמינות ודיוק בזיהוי פעילות פישינג (Phishing) ותוכנות זדוניות באמצעות מילות מפתח בדואר אלקטרוני והודעות שבהן האינטואיציה האנושית לרוב כושלת.

לא הכול נוצץ: הסדקים בטכנולוגיית העתידנית

עם זאת, הסתמכות על אינטליגנציה מלאכותית להגנה על חברות מפני התקפות סייבר אינה מושלמת. כך לדוגמה, אחד מהמחקרים אודות הבינה המלאכותית, הראה כי החדרת תוכן "רעיל" או שגוי למאגר הנתונים של הכלי, כמו העדפות סקסיסטיות או ביטויים גזעניים לדאטה המשמשת להכשרתם, עלולה לצמצם את הדיוק שלו בלא פחות מ־75%.

"בתור מודל שפה, אני יכול לדייק רק כמו האינפורמציה המוזנת אליי", מתריע לעיתים קרובות צ'אט GPT בפני המשתמשים, מה שמוליד משחק חתול ועכבר בלתי נגמר, בו ה־AI צריך למחוק דברים שלמד. כך למעשה, במקרים רבים, הדיוק של הבינה המלאכותית במניעת התקפות סייבר לא מושלם, והכלי לא חוזה היטב התקפות עתידיות.

מעבר לכך, האמון ב־AI נוטה לגרום לכך שאנשים מאצילים לבינה מלאכותית משימות שלא מתחשק להם לבצע, ללא הבנה או פיקוח. אמון יתר ב־AI נפוץ מאוד ואינו חריג, בייחוד כשאנשים נמצאים תחת לחץ זמן בעבודה, ובמקרים רבים לא מעניקים תשומת לב יתרה ונוטים להיות יותר חסרי זהירות. כתוצאה מכך, במקום לשפר את שיתוף הפעולה הנחוץ בין אנשים לבינה המלאכותית, התוצאה היא שהטכנולוגיה העתידנית פשוט מדללת את עבודתם, ולאו דווקא כפי שרצו.

כפי שכתבתי בספרי האחרון, "אני, אדם: AI, אוטומציה והמסע לזכות מחדש במה שעושה אותנו ייחודיים", נראה שישנה נטייה כללית לפיה התפתחות ה־AI מתקבלת בברכה כתירוץ לסטגנציה האינטלקטואלית שלנו. ביטחון בתחום הסייבר אינו יוצא דופן בכך. מבחינה זו, אנו שמחים לקבל התפתחויות טכנולוגיות שיגנו עלינו מפני טעויות אנוש וחוסר תשומת לב, ולהיות "off the hook", מכיוון שאנחנו יכולים פשוט להטיל את האשמה על ה־AI. כמובן, זו לא תוצאה רצויה מבחינת ארגונים, כך שהצורך לחנך, להתריע, להכשיר ולאמן התנהגות אנושית נותר חשוב מתמיד.

בין בני אדם לבינה מלאכותית: בחירה של "או או"?

באופן חשוב, ארגונים חייבים להמשיך במאמצים שלהם להגדיל את מודעות העובדים לנוף המשתנה של סיכונים ואי הוודאות בגלל החדירה של ה־AI. בעוד שאולי לא יהיה אפשרי לגמרי למנוע סיכונים או איומים, ההיבט הכי חשוב של אמון אינו אם אנחנו סומכים על AI או על בני אדם - אלא אם אנחנו סומכים על חברה, מותג, או פלטפורמה מסוימת על פני אחרים. זה לא מצריך לבחור בין הסתמכות על בני אדם או בינה מלאכותית על מנת לשמור על חברות בטוחות מפני התקפות, אלא לגבש תרבות שמצליחה למנף גם את החידושים הטכנולוגיים וגם את המומחיות האנושית בתקווה להיות פחות פגיעה לעומת אחרים.

בסופו של דבר, מדובר בעניין של מנהיגות: לא רק שתהיה המומחיות הטכנית הנכונה או היכולת, אלא גם פרופיל הבטיחות הנכון בראש הארגון, ובייחוד בדירקטוריונים. כפי שהראו מחקרים במשך עשרות שנים, ארגונים המובלים על ידי מנהיגים אשר מודעים לסיכונים (בין השאר בתחום הסייבר), צפויים לגבש תרבות של בטיחות בארגון, שגם בה אפשרי שיהיו סיכונים, אך זה הרבה פחות סביר.

כמובן, חברות כאלה יכולות למנף את הבינה המלאכותית על מנת לשמור על בטיחות הארגונים שלהן, אבל זו האחריות שלהם גם לחנך עובדים ולשפר מנהגים אנושיים שיהפכו אותם לפחות פגיעים להתקפות ולהזנחה. כפי שציין באופן נכון הסופר האנגלי סמואל ג'ונסון, הרבה לפני שתחום הסייבר הפך למה שהוא היום, "שלשלאות ההרגל חלשות מכדי להיות מורגשות, עד שהן נעשות חזקות מכדי שניתן יהיה לשבור אותן".

© Harvard Business School Publishing Corp