מחקר: מנגנון זיהוי התמונה של אמזון מטה תוצאות על בסיס גזע ומגדר
חוקרים ב-MIT בדקו במהלך השנה האחרונה את כלי ה-Rekognition המסייע למפתחים לנתח ולזהות את אוביקטים בתמונה. אלא שהם גילו שבהשוואה לפתרונות מתחרים, הכלי של אמזון לא ממש מדויק ואפילו קצת גזעני
מחקר שנערך על ידי חוקרים ב-MIT מצא כי פלטפורמת ניתוח התמונות של אמזון, Rekognition, לוקה בחסר בכל הקשור בפענוח תמונות בהשוואה למתחרות, ואפילו נוקטת בגישה גזענית. אמזון כמובן מיהרה להכחיש, אבל התוצאות מדברות בפני עצמן.
יש מקום לטעויות?
Amazon Rekognition הוא כלי שמאפשר למפתחים לנתח תמונות ווידאו ביישומים שלהם; הוא יודע לזהות את האוביקטיים והאנשים המופיעים בו, טקסט, סצנות, פעילויות ותוכן לא הולם. אלא שבעוד שאמזון טוענת שאותו כלי יודע לספק ניתוח פנים מדויק ביותר, חוקרים ב-MIT הגיעו למסקנות מעט אחרות.
לטענת החוקרים ב-Media Lab שבמכון MIT, מערכת Rekognition של אמזון נתקלה בקשיים כאשר נדרשה לזהות נשים, ויתרה מכך – נשים בעלות עור כהה, בטח שבהשוואה לשירותים דומים שמציעות IBM ומיקרוסופט. לדבריהם, בניסויים שהם ערכו במהלך שנת 2018, מנגנון ניתוח הפנים של אמזון זיהה נשים כגברים ב-19% מהמקרים, בעוד שהסיכויים של נשים בעלות עור כהה להימצא כגברים קפץ ל-31% מהמקרים. לצורך השוואה, כלי דומה של IBM סיווג נשים כהות עור כגברים ב-17% מהמקרים, בעוד שמיקרוסופט יצאה המדויקת ביותר עם סיווג שגוי שכזה ב-1.5% מהמקרים בלבד.
כאמור, אמזון מיהרה להגיב להאשמות ופרסמה פוסט שנכתב על ידי ד״ר מאט ווד, מנהל תחום הבינה המלאכותית ב-AWS. ״אנחנו מברכים משוב, ואכן חשוב לנו לקבל פידבק מחברים כל הזמן, אבל המחקר והמאמר מטעים ומציגים מסקנות שווא״, כתב ווד. בשורה התחתונה, ווד מסביר כי במחקר נעשה שימוש לא ראוי בכלי ה-Rekognition של החברה, שמציע שתי יכולות; האחת, ניתוח פנים (האם לאוביקט בתמונה יש שפם, משקפיים או שהוא מחייך); והשנייה – זיהוי פנים, אותה טכנולוגיה שמאפשרת לנו לפתוח את הסמארטפון שלנו מבלי לעשות יותר מידי. מה שקרה במחקר האחרון של MIT הוא שנעשה שימוש לא נכון במנגנון ניתוח הפנים, שתכליתו די ברורה, ולכן הוא הציג תוצאות די מאכזבות בכל הקשור בניתוח האוביקט שהוצג בפניו.
״מדובר בשני פיצ׳רים שונים עם שתי מטרות שונות. ניתוח פנים יודע למצוא רק תוכנות גנריות, המשמשות בעיקר לסינון וארגון של תמונות״ (כמו למשל ה-Google Assistant שבטח הציג לכם סיכום של השנה שהייתה ״בחיוכים״, על בסיס תמונות שבהם אתם או אחרים נתפסתם מחייכים, ה.ח). ״לעומת זאת, זיהוי פנים מתמקד בתכונות פנים ייחודיות, ומשמש להתאמה במערכי נתונים של לקוחות. שימוש בניתוח פנים כדי לבצע זיהוי פנים היא דרך לא מדויקת ולא מומלצת לזהות אנשים. אנחנו מסבירים זאת במפורש, ומעולם לא קיבלנו תלונה מלקוח שהתבלבל בין השתיים״, אומר ווד.
הגב
8 תגובות על "מחקר: מנגנון זיהוי התמונה של אמזון מטה תוצאות על בסיס גזע ומגדר"
* היי, אנחנו אוהבים תגובות!
תיקונים, תגובות קוטלות וכמובן תגובות מפרגנות - בכיף.
חופש הביטוי הוא ערך עליון, אבל לא נוכל להשלים עם תגובות שכוללות הסתה, הוצאת דיבה, תגובות שכוללות מידע המפר את תנאי השימוש של Geektime, תגובות שחורגות מהטעם הטוב ותגובות שהן בניגוד לדין. תגובות כאלו יימחקו מייד.
מכשיר נוקט בגישה גזענית?
בתרבות ה pc המטורפת מעמידים אלגוריתמים למשפט
ואלגוריתם לא מתוכנן על ידי אנשים?
אף אלגוריתמאי גזען לא ישב באמאזון ואמר למכונה לטעות בצורה ספציפית כזו על פלח אוכלוסייה מסויים.
האלגוריתם פשוט לא מדוייק מספיק כרגע. קורה. לא צריך להיעלב.
האלגוריתם משקף את הדאטה שהוזן לו.
אם הדאטה מגיע מוטה (ולא התחשבו בכך) אז מכאן נובעת הבעיה
מעניין אותי איזה חוקר של MIT קובע "גזענות" על ML.
אין מצב שמקבלים אותו לעבודה אחרי כזה דבר
אי זיהוי שחור על שחור זה גזענות? למצוא דמיון בו פרצוף של כושים לקופים זה גזענות? מי שלא עברה לו המחשבה בראש או שלא חושב, או שאין לו ראש.
אתם צריכים דחוף לבדוק את ההגדרה של גזענות…
"גִּזְעָנוּת היא עמדה שלפיה בקרב בני אדם מתקיים קשר הכרחי בין מוצאם לבין תכונות אופי מסוימות, או לעיתים גם כישורים שכליים"