מערכת זיהוי הפנים של מיקרוסופט לומדת לא להיות גזענית

עפ"י בלוג החברה, כלי זיהוי הפנים שלה משתפרים ומצליחים יותר כעת בזיהוי אנשים בעלי גווני עור כהים ובזיהוי נשים • כעת, שיעור הטעויות של המערכת קטן פי 20 עבור בעלי עור כהה בהשוואה למצב שלפני השיפור, וקטן פי 9 עבור נשים בכלל, לדברי החברה

זיהוי פנים/ צילום: שאטרסטוק
זיהוי פנים/ צילום: שאטרסטוק

מיקרוסופט הצהירה בבלוג החברה כי כלי זיהוי הפנים שלה משתפרים ומצליחים יותר כעת בזיהוי אנשים בעלי גווני עור כהים ובזיהוי נשים. כעת, שיעור הטעויות של המערכת קטן פי 20 עבור בעלי עור כהה בהשוואה למצב שלפני השיפור, וקטן פי 9 עבור נשים בכלל, לדברי החברה.

הסיבה היא דרך האימון של כלי הבינה המלאכותית. החברה הצהירה כי היא משתמשת היום במאגרי מידע מגוונים יותר בשלב האימון. "אם נאמן את מערכות למידת המכונה כך שיחקו החלטות שהתקבלו בחברה שיש בה הטיות, ונשתמש בדאטה שנאגר בחברה כזו, המערכות האלה בהכרח ינציחו את ההטיות" כתבה האנה וולך, חוקרת בכירה במיקרוסופט בבלוג החברה.

בפברואר, מעבדת המדיה ב-MIT ערכה בחינה של מערכות זיהוי פנים ממיקרוסופט, IBM והחברה הסינית מגוויל ומצאה שעבור כ-35% מהנשים בעלות גווני העור הכהים יותר הייתה טעות בזיהוי המגדר שלהן. ב-2015 תוכנה של גוגל זיהתה אנשים שחורים כגורילות, והחברה נאלצה להתנצל בעקבות הטעות המביכה.

למרות שנראה כי ההתקדמות עליה מדווחים במיקרוסופט חיובית, כבר עולות דאגות לגבי השימושים שרשויות החוק בארה"ב, שמואשמות פעמים רבות בהתנהגות גזענית, עלולות לעשות בכלי המשופר. בנוסף עולות חששות מהדרך בה משטרת ההגירה, עמה מיקרוסופט משתפת פעולה, עשויה לעשות בו. 300 עובדי מיקרוסופט כבר חתמו על עצומה שדורשת מהחברה להפסיק לשתף פעולה עם משטרת ההגירה.