טכנולוגיה בשירות הגזענים

Uber ו-Lyft לא לבד: הטכנולוגיה הפכה את האפליה לברת-יישום קל ומיידי

שירות אובר בברלין / צילום: בלומברג
שירות אובר בברלין / צילום: בלומברג

חברת Airbnb, המאפשרת לאנשים להשכיר את בתיהם או חדרים בתוכם כחלופה לבתי מלון, שלחה לאחרונה מזכר לכל מיליוני המנויים שלה (משכירי דירות וגם שוכרים): החברה מעדכנת את מדיניות ה"מחויבות לקהילה", על-מנת למנוע אפליה על רקע כלשהו במגוון שירותיה.

Airbnb הצהירה כי החל מ-1 בנובמבר 2016, התנאי לשימוש בשירותיה, אם כמשכיר ואם כשוכר, הוא הסכמה מפורשת להתייחס לכל אחד ואחת באופן שוויוני וללא דעות קדומות ללא קשר לגזע, דת, לאום, מוצא אתני, נכות, מגדר, הזדהות מינית או גיל. כך התרגום החופשי מלשון הודעת החברה למנוייה, וביניהם הח"מ. Airbnb גם הוסיפה, שמי שלא יקבל עליו את ההתחייבות הנ"ל לא יוכל עוד להשכיר או לשכור נכסים באמצעות שירותי החברה.

ובהמשך לדברים האלה, בלוג הטכנולוגיה TechCrunch פרסם השבוע מחקר שבוצע על-ידי הרשות הלאומית למחקר כלכלי בארצות-הברית, במטרה לעקוב אחרי גילויים אפשריים של אפליה בשירותי ההסעות של חברות הכלכלה השיתופית וביניהן Uber ו-Lyft. השורה התחתונה של ממצאי המחקר: נוסעים ממוצא אפרו-אמריקאי ממתינים באופן מובהק זמן ארוך יותר לנהגים שיאספו אותם ליעדם.

מבין החברות שנבדקו Uber הייתה זו שהפגינה את האפליה היותר משמעותית, כשבאופן סטטיסטי זמן ההמתנה של נוסעים שחורים לנסיעה במוניות שלה היה ארוך בהרבה מזה של נוסעים אחרים באותם מסלולים בדיוק. באזור בוסטון, למשל, הסיכויים שנהגים יבטלו הזמנה לנסיעה עבור נוסעים בעלי "שם שחור" היו גבוהים מפי 2 מהסיכויים לביטול נסיעה עבור נוסע בעל "שם לבן". המחקר מצא גם אזורים בהם הפערים היו עד כדי פי 3 לרעתם של נוסעים שחורים, בהשוואה לנוסעים לבנים.

יישום יעיל

אין מה להאשים את הטכנולוגיה, כמובן, בתופעות האלה. במקרים שהוזכרו כאן הטכנולוגיה רק מאפשרת יישום יעיל יותר להשקפת עולם גזענית, הבאה לידי ביטוי בחוסר הנכונות להסיע נוסע שחור, או להשכיר חדר בדירתך לאדם מהמוצא "הלא נכון" במקרה של Airbnb.

היישום הזה של אפליה על רקע כלשהו מתאפשר היום ביתר קלות בגלל המידע הרב והמדויק שניתן לשאוב בקלות ובמהירות לגבי כל מי שמחובר לעולם המקוון. אין בעיה לאסוף ולעבד בשברירי שנייה מידע רב ומפורט לגבי אדם מסוים, גילו, מוצאו, הרקע האתני שלו, דעותיו הפוליטיות, נטיותיו המיניות, קשריו החברתיים, מעמדו הכלכלי ועוד אלפי מאפיינים של זהותנו כבני אנוש ולייצר כתוצאה מכך פרופיל מדויק מאוד של אותו אדם.

למעשה, הניתוחים האלה מתבצעים עשרות פעמים ביום לגבי כמעט כל אחד מאיתנו על-מנת להגיש לנו פרסומות מותאמות אישית או להנגיש לנו שירותים דיגיטליים. ואולם, אותן יכולות בדיוק יכולות לאפשר לאתר מסחר אלקטרוני להחליט שאינו מוכר סחורה ליהודים, או לחברת מזון מהיר להחרים הזמנות מלקוחות בעלי השקפות עולם ימניות או למעסיק גדול להימנע מזימון מועמדים מרקע אתני מסוים לראיונות עבודה.

ובעצם, כל הדוגמאות האלה ורבות אחרות כבר קיימות בעולם שנים רבות, עוד לפני שהטכנולוגיה הפכה את האפליה לברת-יישום קל ומיידי. ומכאן, שיש גם צורך במעקב שיטתי ועיקש אחרי יישומים לא נכונים ולעיתים גם לא חוקיים של יכולות הטכנולוגיה המתקדמות בשירות האפליה והגזענות. הדברים האלה נכונים כמובן גם כאן במדינת ישראל של המאה ה-21. רק השבוע התפרסם ראיון מוקלט עם קבלן מזון של חברת טבע שסירב לראיין עובד ערבי בגלל מדיניות של החברה למנוע תעסוקת ערבים, לטענת אותו קבלן (טבע הכחישה מכל וכל).

ובישראל של המאה ה-21 רבים המקרים של אפליית תלמידות דתיות על רקע עדתי, הוראות של רבנים שלא להשכיר דירות לאזרחים ממוצא כזה או אחר, סירוב הסעות במוניות ועוד ועוד. עצם המחשבה על האפשרויות האין סופיות ששימוש לא נכון בטכנולוגיה יכול לתת בידיהם של גזענים וחשוכים מחייבת מדיניות חד משמעית ואכיפה בלתי מתפשרת של החוק גם על כל החברות והשירותים השונים, כולם נפלאים בפני עצמם, שעולם ההיי-טק החדש מאפשר לנו, בארץ ובעולם.

■ יזהר שי הוא שותף מנהל בקיינן פרטנרס ישראל.