מחקר: מנגנון זיהוי התמונה של אמזון מטה תוצאות על בסיס גזע ומגדר

חוקרים ב-MIT בדקו במהלך השנה האחרונה את כלי ה-Rekognition המסייע למפתחים לנתח ולזהות את אוביקטים בתמונה. אלא שהם גילו שבהשוואה לפתרונות מתחרים, הכלי של אמזון לא ממש מדויק ואפילו קצת גזעני

מקור: Amazon Rekognition

מחקר שנערך על ידי חוקרים ב-MIT מצא כי פלטפורמת ניתוח התמונות של אמזון, Rekognition, לוקה בחסר בכל הקשור בפענוח תמונות בהשוואה למתחרות, ואפילו נוקטת בגישה גזענית. אמזון כמובן מיהרה להכחיש, אבל התוצאות מדברות בפני עצמן.

יש מקום לטעויות?

Amazon Rekognition הוא כלי שמאפשר למפתחים לנתח תמונות ווידאו ביישומים שלהם; הוא יודע לזהות את האוביקטיים והאנשים המופיעים בו, טקסט, סצנות, פעילויות ותוכן לא הולם. אלא שבעוד שאמזון טוענת שאותו כלי יודע לספק ניתוח פנים מדויק ביותר, חוקרים ב-MIT הגיעו למסקנות מעט אחרות.

לטענת החוקרים ב-Media Lab שבמכון MIT, מערכת Rekognition של אמזון נתקלה בקשיים כאשר נדרשה לזהות נשים, ויתרה מכך – נשים בעלות עור כהה, בטח שבהשוואה לשירותים דומים שמציעות IBM ומיקרוסופט. לדבריהם, בניסויים שהם ערכו במהלך שנת 2018, מנגנון ניתוח הפנים של אמזון זיהה נשים כגברים ב-19% מהמקרים, בעוד שהסיכויים של נשים בעלות עור כהה להימצא כגברים קפץ ל-31% מהמקרים. לצורך השוואה, כלי דומה של IBM סיווג נשים כהות עור כגברים ב-17% מהמקרים, בעוד שמיקרוסופט יצאה המדויקת ביותר עם סיווג שגוי שכזה ב-1.5% מהמקרים בלבד.

כאמור, אמזון מיהרה להגיב להאשמות ופרסמה פוסט שנכתב על ידי ד״ר מאט ווד, מנהל תחום הבינה המלאכותית ב-AWS. ״אנחנו מברכים משוב, ואכן חשוב לנו לקבל פידבק מחברים כל הזמן, אבל המחקר והמאמר מטעים ומציגים מסקנות שווא״, כתב ווד. בשורה התחתונה, ווד מסביר כי במחקר נעשה שימוש לא ראוי בכלי ה-Rekognition של החברה, שמציע שתי יכולות; האחת, ניתוח פנים (האם לאוביקט בתמונה יש שפם, משקפיים או שהוא מחייך); והשנייה – זיהוי פנים, אותה טכנולוגיה שמאפשרת לנו לפתוח את הסמארטפון שלנו מבלי לעשות יותר מידי. מה שקרה במחקר האחרון של MIT הוא שנעשה שימוש לא נכון במנגנון ניתוח הפנים, שתכליתו די ברורה, ולכן הוא הציג תוצאות די מאכזבות בכל הקשור בניתוח האוביקט שהוצג בפניו.

״מדובר בשני פיצ׳רים שונים עם שתי מטרות שונות. ניתוח פנים יודע למצוא רק תוכנות גנריות, המשמשות בעיקר לסינון וארגון של תמונות״ (כמו למשל ה-Google Assistant שבטח הציג לכם סיכום של השנה שהייתה ״בחיוכים״, על בסיס תמונות שבהם אתם או אחרים נתפסתם מחייכים, ה.ח). ״לעומת זאת, זיהוי פנים מתמקד בתכונות פנים ייחודיות, ומשמש להתאמה במערכי נתונים של לקוחות. שימוש בניתוח פנים כדי לבצע זיהוי פנים היא דרך לא מדויקת ולא מומלצת לזהות אנשים. אנחנו מסבירים זאת במפורש, ומעולם לא קיבלנו תלונה מלקוח שהתבלבל בין השתיים״, אומר ווד.

הילה חיימוביץ׳

גיקית, Deal With It

הגב

8 תגובות על "מחקר: מנגנון זיהוי התמונה של אמזון מטה תוצאות על בסיס גזע ומגדר"

avatar
Photo and Image Files
 
 
 
Audio and Video Files
 
 
 
Other File Types
 
 
 

* היי, אנחנו אוהבים תגובות!
תיקונים, תגובות קוטלות וכמובן תגובות מפרגנות - בכיף.
חופש הביטוי הוא ערך עליון, אבל לא נוכל להשלים עם תגובות שכוללות הסתה, הוצאת דיבה, תגובות שכוללות מידע המפר את תנאי השימוש של Geektime, תגובות שחורגות מהטעם הטוב ותגובות שהן בניגוד לדין. תגובות כאלו יימחקו מייד.

סידור לפי:   חדש | ישן | הכי מדורגים
לורד זה לא טוש
Guest

מכשיר נוקט בגישה גזענית?

אלעד
Guest

בתרבות ה pc המטורפת מעמידים אלגוריתמים למשפט

אהרון
Guest

ואלגוריתם לא מתוכנן על ידי אנשים?

אמאזון
Guest

אף אלגוריתמאי גזען לא ישב באמאזון ואמר למכונה לטעות בצורה ספציפית כזו על פלח אוכלוסייה מסויים.

האלגוריתם פשוט לא מדוייק מספיק כרגע. קורה. לא צריך להיעלב.

מעריצי הילה
Guest

האלגוריתם משקף את הדאטה שהוזן לו.
אם הדאטה מגיע מוטה (ולא התחשבו בכך) אז מכאן נובעת הבעיה

טל טל
Guest

מעניין אותי איזה חוקר של MIT קובע “גזענות” על ML.
אין מצב שמקבלים אותו לעבודה אחרי כזה דבר

סוד זה לא אבקת כביסה
Guest
סוד זה לא אבקת כביסה

אי זיהוי שחור על שחור זה גזענות? למצוא דמיון בו פרצוף של כושים לקופים זה גזענות? מי שלא עברה לו המחשבה בראש או שלא חושב, או שאין לו ראש.

DontKillMe
Guest

אתם צריכים דחוף לבדוק את ההגדרה של גזענות…
“גִּזְעָנוּת היא עמדה שלפיה בקרב בני אדם מתקיים קשר הכרחי בין מוצאם לבין תכונות אופי מסוימות, או לעיתים גם כישורים שכליים”

wpDiscuz

תגיות לכתבה: