מחוץ לכל סוג של הקשר בעולם האמיתי, טכנולוגיית זיהוי הפנים היא מגניב בסוג של מדע בדיוני, אנחנו-חיים-בעתיד בצורה כזו או אחרת. אבל דיווח של רויטרס על השימוש בזיהוי פנים ב-200 חנויות Rite Aid - אחד מהיישומים הגדולים ביותר בארצות הברית - מראה כי בהקשר זה מעיד על עתיד אף אחד שמתעניין בצדק לא צריך להתרגש ממנו.
Rite Aid השתמשה בספקים ובציוד שונים במהלך מאמצי זיהוי הפנים שלה, אבל זה תמיד עבד באותה צורה. מצלמות לכדו את פני הלקוחות והשוו אותם למאגר תמונות של פרצופים השייכים לאנשים שהחברה "צפתה בעבר שעוסקים בהם פעילות פלילית פוטנציאלית.”
כאשר בוצעה התאמה, התוכנה פנתה לסמארטפון שהחזיק בידי סוכן האבטחה של החנות. הם היו בוחנים את ההתאמה ואם מדויק, מבקשים מהאדם הנדון לעזוב.
גם אם זה עבד בצורה מושלמת וייושם בצורה הוגנת, המערכת תהיה בעייתית. זה נשען על הנחה שמי שגנב שנים קודם לכן ראוי להרחקה מהחנות היום. זה גם נותן לתאגידים את היכולת לסלק אנשים מהחנויות שלהם על סמך מידע שהם שולטים בהם, וזה גם מטריד.
ובפועל, זיהוי פנים ב-Rite Aid לא עבד בצורה מושלמת ולא יושם בצורה הוגנת.
עשרה סוכני אבטחה ששוחחו עם רויטרס כולם הסכימו שהמערכת טועה בזיהוי אנשים באופן קבוע יש אינדיקציות לכך שהתוכנה הייתה פחות יעילה - ולכן יותר סיכנה לאנשים של צֶבַע.
רויטרס מצאה לקוח אחד של Rite Aid, טריסטן ג'קסון-סטנקונס, שהתבקש לעזוב חנות בקליפורניה על ידי סוכן אבטחה מבוסס על התאמה עם תמונה שלדבריו, למעט העובדה שהראה גבר שחור, לא נראה כמוהו אוֹתוֹ.
"זה לא קולט אנשים שחורים טוב", אמר סוכן אבטחה ב-Dtroit Rite Aid. "אם העיניים שלך באותו האופן, או אם אתה עונד את הסרט שלך כמו שאדם אחר עונד סרט, אתה הולך לקבל מכה."
ואפילו מעבר לחסרונות של התוכנה, היישום של Rite Aid של זיהוי פנים היה מרוכז באופן לא פרופורציונלי בקהילות צבעוניות, מה שהמוכרים כינו "קשוחים יותר", "קשוחים ביותר" או אזורים "גרוע ביותר". 52 מתוך 65 החנויות בהפצת הטכנולוגיה הגדולה הראשונה של החברה היו באזורים שבהם הקבוצה הגדולה ביותר הייתה שחור או לטינו.
לדוגמה, חנות באפר ווסט סייד הלבן והעשיר יותר של מנהטן לא זכתה לזיהוי פנים בעוד שחנות בהארלם, במרחק של שני מיילים משם, עשתה זאת. זאת למרות שבדיקה פנימית מצאה ששתי החנויות המרוויחות היו בעלות סיכון שווה להפסד.
Rite Aid מצידה מתעקשת שלתוכנית זיהוי הפנים "לא היה שום קשר לגזע והיא נועדה להרתיע גניבות ולהגן על הצוות והלקוחות מפני אלימות". עוד נאמר כי התוכנית הופסקה על רקע "תעשייה גדולה יותר שִׂיחָה."
"נראה שחברות טכנולוגיה גדולות אחרות מצטמצמות או חושבות מחדש על המאמצים שלהן סביב זיהוי פנים, לאור אי הוודאות הגוברת סביב התועלת של הטכנולוגיה", אמרה החברה, תוך שהיא התעלמה מלהגיב על האופן שבו היישום שלה ולא רק הטכנולוגיה עצמה עשוי היה לתרום לכישלון של התכנית.