אפל דוחה את תוכנית סריקת התמונות לאיתור פגיעה בילדים

בעקבות הביקורת: אפל הודיעה כי היא דוחה את יישום תוכנית סריקת ספריות התמונות של משתמשים לאיתור תמונות של פגיעה והתעללות בילדים • המערכת הייתה אמורה להיכנס למכשירי המשתמשים השנה ומשך הדחייה עדיין לא ידוע

אפל. משנה תוכניות בעקבות הביקורת / צילום: Shutterstock, Lester Balajadia
אפל. משנה תוכניות בעקבות הביקורת / צילום: Shutterstock, Lester Balajadia

אפל הודיעה כי היא תעכב את התוכנית השנויה במחלוקת שלה לסרוק ספריות תמונות של משתמשים לאיתור תמונות של פגיעה והתעללות בילדים.

"בחודש שעבר הכרזנו על תוכניות לתכונות חדשות שנועדו לסייע בהגנה על ילדים מפני פוגעים המשתמשים בכלים תקשורתיים כדי לגייס ולנצל אותם, ולהגביל את ההתפשטות של חומרים של התעללות מינים בילדים", נמסר בהודעת החברה. "בהתבסס על משוב לקוחות, קבוצות תמיכה, חוקרים ואחרים - החלטנו להקדיש זמן נוסף בחודשים הקרובים כדי לאסוף מידע ולבצע שיפורים לפני שנפרסם את התכונות הקריטיות והחשובות להגנה על ילדים", נכתב.

אפל עוררה מחלוקת באופן מיידי לאחר שהכריזה על המערכת שלה לבדיקה אוטומטית של תמונות בחשבונות ה-iCloud מחשש להתעללות מינית בילדים. המערכת תהפוך את התמונות במכשירים לפלט מוצפן (hashes) שמאוחסן במכשיר המשתמש. המחרוזות אלה יותאמו למאגרי נתונים שמספק ה-National Center for Missing and Exploited Children. לפי החברה, המכשיר למעשה ייצור "safety voucher" מוצפן ברגע שיש חשד להפרה.

ברגע שיש רף של שוברים כאלה מסומנים, צוות הבדיקה של אפל יקבל התראה - יפענחו את ההצפנה, ישביתו את החשבון המסוכן ויתריעו למרכז הלאומי. מי שחושב שחשבונותיו סומנו בטעות, יכול להגיש ערעור על כך. בנוסף כתבה אפל כי הסף שהוגדר מסוגל לספק רמת דיוק גבוהה במיוחד "ומבטיח פחות מאחד טריליון סיכויים בשנה לסמן נתון לא נכון".

"במקום לסרוק תמונות בענן, המערכת מבצעת התאמה במכשיר באמצעות מסד נתונים של קבצי תמונות CSAM (ראשי-תיבות: Child Sexual Abuse Material) המסופקים על-ידי המרכז הלאומי וארגוני בטיחות אחרים. אפל הופכת את מסד הנתונים למערך מוצפן המאוחסן בצורה מאובטחת במכשירים", נכתב בהודעה של החברה.

המערכת הזו הייתה אמורה להיכנס למכשירי המשתמשים מאוחר יותר השנה, לא ברור כמה זמן היא תדחה את התוכניות שלה.