ריגול ורובוטים רצחניים: איפה המצפון של ההייטק הישראלי?

על רקע פרשת NSO וההתקדמות בפיתוח כלי נשק מבוססי בינה מלאכותית, כל יזם ומתכנת צריכים לשאול את עצמם: זה מה שאני רוצה להיות שותף לו?

ריגול תעשייתי / צילום: Shutterstock
ריגול תעשייתי / צילום: Shutterstock

השבוע הגיע אליי צוות יזמים כדי להציג חברת סטארט-אפ העוסקת בתחומים הקשורים באינטליגנציה מלאכותית לצורך שיפור השירות והיעילות בשווקים מסויימים. המפגש החל בהיכרות הדדית, תוך דגש על הרקע של היזמים והניסיון הרלוונטי שלהם. מתברר שהמנכ"ל היה אחד מהעובדים הראשונים בחברה שפיתחה טכנולוגיות לעולם הפרסום, ולקוחות החברה נעזרו במוצריה על מנת להעלות את החשיפה של פרסומות בפני קהלי היעד שלהם בעולם המובייל והאתרים.

במילים פחות מעודנות: החברה השתמשה בכל תחבולה טכנולוגית אפשרית כדי לגרום לגולשים להקליק על פרסומת, גם אם לא התעניינו בנושא הפרסום וגם אם כוונתם הייתה להעיף את הפרסומת לכל הרוחות. כולנו מכירים את התחושה המעצבנת הזו, כשחודרים לנו למרחב הדיגיטלי הפרטי, כשמאלצים אותנו להיחשף לפרסומות באמצעים מרגיזים וערמומיים כל כך, שמותירים אותנו להתעצבן על מה שהתרחש. שלא לדבר על השאריות שמפרסמים רבים משאירים כמזכרת על גבי הדפדפן או במקומות אחרים, כבסיס להתקפת פרסומות במועדים מאוחרים יותר - בניגוד לרצוננו, כמובן.

ההייטק הישראלי נודע לשמצה ביכולת שלו לייצר חברות רבות שכאלו, שהכניסו כסף רב לכיסי היזמים והמשקיעים שלהן על חשבון תסכול מתמשך, ולעיתים פגיעה קשה בפרטיותם של מיליוני משתמשים. היזם שפגשתי השבוע סיפר לי, שאחרי שהבין את המשמעות של היכולות להן הוא תרם בהיותו איש פיתוח בחברה, הוא הגיע למסקנה שאיננו רוצה להמשיך לעבוד שם. הוא התבייש במוצרים שלפיתוחם היה שותף, הרגיש שהוא לא מסוגל להיות חלק מפעילות כזו ועזב את החברה. זו לא הפעם הראשונה שאני שומע סיפור כזה והוא לא היה היזם הראשון שפגשתי בשנים האחרונות שעזב חברה בנסיבות דומות.

של מי האחריות

כשסיימתי את השיחה עם היזמים, נזכרתי בתביעה המשפטית שמתנהלת נגד חברת NSO הישראלית. על פי הפרסומים, NSO הואשמה בריגול שביצעה בשירות איחוד האמירויות כנגד נסיך סעודי ובכירים אחרים ממדינות המפרץ. כידוע, הטכנולוגיה של NSO היא בעלת שורשים עמוקים ביחידות הטכנולוגיה המובילות בצה"ל. היכולות של NSO לשתול קוד נסתר במכשירי מובייל, ולהפוך אותם למכשירי ריגול מתקדמים, לא נולדו מהצורך של חזאי מזג האוויר למצוא נתונים אופטימליים לגידול סחלבים בדרום הארץ. היכולות הללו התפתחו על בסיס צורכי הביטחון המובנים לחלוטין של מדינת ישראל לעקוב אחר חשודים בפעילות עוינת, ובהקשר הזה זוהי כמובן טכנולוגיה חשובה.

השאלה המוסרית עולה ברגע שהטכנולוגיה הזו נמכרת לכל המרבה במחיר. המדינה כנראה שקלה בכובד ראש את הנושא והתירה לאנשי NSO לייצא אותה אל מחוץ לגבולותיה, אבל האישור הזה לא פותר בעיות מוסריות, להיפך. אפילו אם נניח שריגול אחרי נסיך סעודי ועוד בכירים ממדינות עוינות הוא דווקא אירוע שמשמח את ליבנו, אי אפשר להתחמק מהמחשבה על השימוש בטכנולוגיה הזו בנסיבות קצת פחות מלבבות.

מעניין אותי מה חשים מנהלי NSO ומפתחי הקוד אל מול האפשרות שהמוצר שלהם יימכר למשטרים רודניים אפלים וישמש אותם לצורך מעקב אחרי פעילי חופש. מה דעתם על כך שהטכנולוגיה הייחודית שלהם תאפשר עינויים, ענישה כבדה והוצאה להורג אכזרית של מתנגדי משטר? ואם לא בעינויים ובמוות מדובר, אלא "רק" בריגול תעשייתי שבו חברה מסחרית עוקבת אחרי מנהלים בכירים של מתחרה ושולפת מידע חיוני באופן בלתי חוקי, האם אז מרגישים ב-NSO קצת יותר טוב? ועוד שאלה: איפה עוצרת האחריות? האם מי שצריכים לנוע שלא בנוח בכיסאם הם רק יזמי החברה ומנהליה הבכירים, או שמא גם אחרון המתכנתים?

לכו להסתכל במראה

המקרה של NSO אולי פשוט יחסית לאבחנה מוסרית, אבל יש תחומים רבים שבהם הגבולות עלולים להטשטש, וגם לגביהם נדרשת מודעות וקבלת אחריות. בינה מלאכותית היא דוגמה טובה לתחום ענק המתפתח במהירות ומשפיע על כל תחומי החיים שלנו. שלבו אותה ביכולות אוטונומיות של מכונות עצמאיות כמו רובוטים, כלי רכב ורחפנים, ותקבלו מגוון אפשרויות להיטיב עם האנושות ולסייע ליצירת עולם טוב יותר או, לחילופין, לייצר כלי משחית רצחניים במיוחד.

ההתלבטות המוסרית אינה פשוטה. מדינת ישראל הצטרפה השבוע למספר מדינות נוספות כמו ארצות הברית, רוסיה ודרום קוריאה, שמנעו יחדיו מהאו"ם החלת צעדים להחרמת כלי נשק אוטונומיים מבוססי בינה מלאכותית. נראה שהחזון האפוקליפטי שלפיו עשרות אלפי רובוטים צועדים ברחובות, ומשיגים את מטרתם בכל מחיר ללא כל נקיפת מצפון דיגיטלית - החזון הזה כבר אינו כל כך רחוק מהמציאות. עד כדי כך שבאו"ם ניסו למנוע את יישומו, ונבלמו.

מה שמחזיר את ההתלבטות המוסרית אל יזמי ההייטק הישראלי ואל העובדים בו. כמה מהם רוצים להיות שותפים בתכנות אלגוריתם שעלול לשמש מרכיב קריטי בנשק להשמדה המונית? כמה יחיו בשלום עם הידיעה שהאקזיט המדהים שהיו שותפים לו כשנמכרה חברת הרובוטיקה המובילה שלהם לחברת ענק כלשהי, האקזיט שהעשיר אותם עד מאוד, מסייע עכשיו להשמדה של מאות אלפי ילדים על ידי רובוטים בשירותו של עריץ אכזר?

ומה לגבי אמצעים מתוחכמים להעברת כספים ללא אפשרות כלשהי למעקב אחריהם (עיינו ערך בלוקצ'יין), המסייעים בידי קרטלים לסחר בסמים או בבני אדם? איפה עובר הגבול בין נייטרליות ואדישות לגבי עתידה של טכנולוגיה המפותחת על ידי מיטב המוחות באומת הסטארט-אפ, לבין לקיחת אחריות אישית הנובעת מתוך מודעות ושיקולי מוסר עמוקים?

לא תמיד התשובה ברורה, אבל לפעמים הכלל שנוקטים בו לגבי פורנוגרפיה נכון גם כאן, בהייטק: כשרואים את זה יודעים שזו פורנוגרפיה. ובהקבלה לכך, אולי הדבר הנכון להגיד כאן הוא: לכו אל המראה והסתכלו בה היטב, אתם כבר תדעו אם מי שעומד לפניכם איבד את עקרונות המוסר והמצפון, או שמא הוא עדיין אותו אדם שרציתם לראות שם. 

יזהר שי הוא שותף מנהל בקיינן פרטנרס ישראל