פורסם פרק נוסף ב"תיקי פייסבוק": כך כשלו מנגנוני הבקרה העצמית

פייסבוק הודיעה כי עד סוף 2019 תאכוף את חוקיה ברשת באמצעות בינה מלאכותית שתדע לזהות תכנים בעייתיים כמו שיח שנאה, אלימות קשה ומשתמשים קטינים • אלא שבפועל האלגוריתם שפותח לא מצליח אפילו להבדיל בין קרבות תרנגולים לתאונות דרכים

מנכ''ל ומייסד פייסבוק, מארק צוקרברג / צילום: Associated Press
מנכ''ל ומייסד פייסבוק, מארק צוקרברג / צילום: Associated Press

בוול סטריט ג'ורנל מפרסמים פרק נוסף בתחקיר הענק שלהם על פייסבוק, "The Facebook Files", והפעם על השימוש של החברה בבינה מלאכותית בשביל לאכוף את החוקים שלה ברחבי הזירה. למעשה, בכירי פייסבוק אמרו בעבר כי בינה מלאכותית אמורה לטפל ברשת החברתית בתכנים בעייתיים כמו שיח שנאה, אלימות קשה ומשתמשים קטינים.

מארק צוקרברג, מייסד ומנכ"ל פייסבוק, אמר בעבר שהוא מצפה שפייסבוק תשתמש בבינה מלאכותית כדי לזהות את "הרוב המכריע של תוכן בעייתי" עד סוף 2019. עם זאת, עובדי החברה אומרים כי החברה מצליחה להסיר רק שבריר מהפוסטים שמפרים את מדיניות שיח השנאה של החברה, כשמדברים על אחוז נמוך בעל ספרה אחת. על פי התחקיר, אם האלגוריתם לא בטוח מספיק שהתוכן מפר את הכללים, התוכן יוצג למשתמשים בתדירה נמוכה, וחשבונות שפרסמו את התוכן לא ייענשו.

על פי המסמכים הפנימיים של פייסבוק, הבינה המלאכותית לא מצליחה לזהות בעקביות סרטוני יריות בגוף ראשון, גזענות ואפילו - הבינה המלאכותית לא הצליחה להבדיל בין קרבות תרנגולים לתאונות דרכים. על פי הדוגמאות - הבינה המלאכותית החמיצה סרטוני ירי וסרטונים של תאונות דרכים עם מחזות קשים. הבינה המלאכותית אף החמיצה איומי אלימים שהופנו כלפי ילדים טרנסג'נדרים. הבינה המלאכותית סימנה סרטון של שטיפת מכוניות כסרטון יריות בגוף ראשון.

פייסבוק קיצצה בודקי תוכן אנושיים 

כדי להבין את העניין, לפייסבוק יש אלגוריתמים שעושים את החיפוש והבדיקה בתכנים השונים והם נקראים classifiers - מסווגים. אם פייסבוק בטוחה שהתוכן מפר את החוקים שלה, אפשר להסיר את התוכן המדובר. על פי התחקיר, בתחומים כמו ספאם, המסווגים האלו עובדים טוב. אבל לעיתים קרובות בבעיות רגישות או מורכבות מבחינה תרבותית - המסווגים עובדים פחות טוב. "המסווגים דומים לתלמידי בית ספר יסודי והם זקוקים למורים (בודקים אנושיים) כדי לצמוח לדוקטורט", כתב מהנדס פייסבוק בדיון במערכת הפנימית של פייסבוק בדיון על עליית שיח השנאה בזירה.

המסמכים מצביעים על כך שפייסבוק קיצצה לפני שנתיים את הזמן שבודקי תוכן אנושיים בחנו בתלונות משתמשים על שיח שנאה ואף ביצעה כמה שינויים שהפחיתו את מספר התלונות באופן כללי. אז, בשנת 2019, פייסבוק עשתה בקרת עלויות על שיח שנאה, כדי לחסוך כסף. היא גילתה שהצוותים האנושיים עולים לה 104 מיליון דולר בשנה, כך על פי מסמך פנימי. "במסגרת התקציב הכולל שלנו, שיח שנאה הוא ללא ספק הבעיה היקרה ביותר". מהלך כזה כמובן מוביל את פייסבוק להיות תלויה יותר באכיפה מצד בינה מלאכותית.

דובר פייסבוק אמר שהכספים שהועברו יועדו כדי להעסיק אנשים נוספים להכשרת האלגוריתמים של פייסבוק וכי התקציב הכולל נשאר יציב ודומה.

המסמכים מראים שכ-75% מהעלויות נבעו מהעסקת אנשים לבדיקת תלונות של משתמשים, שרובם המכריע לא נחשב כשיח שנאה לאחר הבדיקה. בשנת 2019, מעבר לקיצוץ השעות הדובר, החברה החלה להשתמש באלגוריתם בינה מלאכותית שהוביל אותה להתעלם מאחוז גדול יותר של דיווחי משתמשים. לפי הדיווח, פייסבוק הוסיפה כל מיני מכשולים לתהליך הדיווח על התלונות. במענה לכך, דובר החברה סטון אומר שהם לא עשו זאת כדי לשנות את שיעור הדיווחים או להגביל, אלא כדי להפוך את מערכת הדיווחים ליעילה יותר.

מדען בכיר בפייסבוק, שאחראי לשמור על פייסבוק מתכנים בעיתיים, כתב ב-2019 שהחברה לא באמת קרובה להצליח להתמודד עם כל התוכן בצורה מהימנה. "הבעיה היא שאין לנו ואולי אף פעם לא יהיה לנו מודל שתופס אפילו את רוב הפגיעות, במיוחד בתחומים רגישים", כתב. הוא העריך שהמערכות האוטומטיות הסירו פוסטים שהפרו את הכללים, אך יצרו רק 2% מהצפיות על שיח שנאה ברשת החברתית. "ההערכות האחרונות מצביעות על כך שאם לא יהיה שינוי משמעותי באסטרטגיה, יהיה קשה מאוד לשפר זאת מעבר ל-20%-10% בטווח הקצר", הוסיף.

במרץ השנה, כל על פי התחקיר, צוות אחר של עובדי פייסבוק הסיק מסקנה דומה. המערכות הללו מסירות פוסטים שהניבו בין 5%-3% מהצפיות בשיח שנאה בזירה, ו-0.6% מכלל התכנים שמפרים את מדיניות פייסבוק בנושאי אלימות והסתה.

דובר החברה, אנדי סטון, אומר שהאחוזים המדוברים התייחסו לפוסטים שהוסרו באמצעות בינה מלאכותית, אבל לא כללו פעולות אחרות שהחברה נוקטת כדי לצמצם את מספר האנשים שצופים בדיבור שנאה. פייסבוק אומרת שכיום חמש צפיות מתוך כל עשרת אלפים צפיות - כללו דיבור שנאה, שיפור מכ-10 מתוך עשרת אלפים באמצע 2020. עוד הוסיפה פייסבוק שהיא מסירה פי 15 יורת תכנים בעייתיים מאשר בשנת 2017.

החברה נזהרת מאכיפת יתר

גיא רוזן, בכיר בחברה האחראי על תחום היושרה, פרסם פוסט בבלוג החברה שבו נכתב כי מבחינתם זה המדד החשוב ביותר - כי זה מייצג "את מה שפספסנו ואת מה שאנשים ראו, וזה המדד העיקרי שאנו נותנים לו דין וחשבון. והצלחנו להקטין אותו וזהו הדרך שבה אנו מתקדמים". רוזן אמר שהמסמכים שנבדקו בג'ורנל הם מיושנים, אבל הם עזרו לחברה לחשוב בצורה רחבה יותר על איך מנהלים את הבינה המלאכותית וההשפעה על התוכן.

לפי המסמכים, פייסבוק עשתה סקר וגילתה שמשתמשים ברחבי העולם מעדיפים שיורידו להם את התוכן בטעות, מאשר שיצפו בתוכן בעייתי כמו שיח שנאה. עם זאת, למרות פעולות האכיפה המינימליות של פייסבוק, החברה נזהרת מאכיפת יתר - משמע שלא לאכוף יותר מדי פוסטים, כדי לא להסיר בטעות פוסטים שלא עוברים על החוקים. על פי אנשים שמכירים את הנושא, מהנדסי החברה מעדיפים להכשיר מודלים שיאפשרו יותר שיח שנאה מאשר לקבל תגובות שווא.

בשנת 2018, מייסד ומנכ"ל פייסבוק מארק צוקברג אמר בוועדה בסנאט שהוא אופטימי כי בתוך עשר שנים יהיו לפייסבוק כלי AI מפותחים לאיתור פרואקטיבי של רוב שיח השנאה. שנתיים לאחר מכן, בחודש יולי, הוא אמר: "מבחינת המאבק בשנאה, בנינו מערכות מתוחכמות באמת".

בנוסף, הבינה המלאכותית צריכה להיות יעילה גם בשפות אחרות שהן לא אנגלית. על פי תזכיר מ-2020, עובדי פייסבוק דנו על יצירת מסווג של דיבור שנאה לניבים בערבית. אבל המערכת התקשתה בערבית סטנדרטית בגלל חוסר במידע שאפשר ללמוד ממנו. "אין להם מספיק תוכן כדי להכשיר ולתחזק את המסווג הערבי כרגע, שלא לדבר על תקלות", כתב אחד העובדים בנושא.

בחודש ינואר, עובד בפייסבוק דיווח ששיח שנאה הוא אחת מקטגוריות ההתעללות באפגניסטן, אבל החברה נקטה צעדים נגד 0.23% בלבד ממה שמעריכים כתוכן שיח השנאה במדינה. במרץ, עובדים שעבדו על הבחירות בהודו אמרו ששיח שנאה מהווה סיכון גדול באסאם, שם גוברת האלימות כלפי מוסלמים וקבוצות אתניות אחרות. על פי מסמך תכנון, "אסאם מעוררת דאגה מיוחדת מכיוון שאין לנו מסווגי שיח שנאה שם", כך נכתב.

תגובה לפרסום כתב רוזן בבלוג החברה: "נעשה שימוש בנתונים שנשלפו ממסכים שהודלפו ליצירת נרטיב שהטכנולוגיה שבה אנו משתמשים כדי להילחם בשיח שנאה אינה מספקת וכי אנו לא מייצגים בכוונה את ההתקדמות שלנו. זה לא נכון. אנחנו לא רוצים לראות שנאה בזירה שלנו, וכך גם המשתמשים והמפרסמים, ואנחנו שקופים לגבי עבדותנו להסיר אותה. מה שהמסמכים מדגמים הוא שעבודת היושרה שלנו היא מסע רב שנתי. אף שלעולם לא נהיה מושלמים, הצוותים שלנו עובדים ללא הרף על פיתוח מערכות, זיהוי בעיות ובניית פתרונות.

"כשהתחלנו לדווח על המדדים שלנו על שיח שנאה, רק כ-24% מהתכנים שהסרנו זוהו באופן יזום על ידי המערכות שלנו. רוב מה שהסרנו נמצא על ידי המשתמשים. כעת המספר הזה הוא מעל ל-97%".