אפל רוצה לסרוק כל תמונה שעולה לענן כדי להלחם בפדופילים – וחוטפת מכל כיוון אפשרי

הענקית מקופרטינו החליטה שהיא רוצה לעצור הפצת תכנים המציגים פגיעה בילדים ופיתחה כמה פיצ’רים כדי לעשות זאת. הבעיה: כולם חושבים שזה רעיון גרוע, חוץ ממנה

צילום: גיקטיים

הבטיחות של ילדים בעולם הדיגיטלי הפכה בשנים האחרונות לנושא מדובר יותר, ואפילו כזה שזכה להתייחסות משמעותית בחקיקה בארה”ב – עם סעיפים ספציפיים המתייחסים לשמירה על פרטיות ילדים בחוק פרטיות הצרכנים בקליפורניה (CCPA). כעת, אפל החליטה להציג חזון ודרך משלה לשמירה על פרטיות הילדים – וכולם חושבים שזה רעיון רע, חוץ ממנה.

רק נציץ לכם בתמונות רגע

הענקית האמריקאית פרסמה באתר שלה את התוכנית שלה למניעת הפצת תכנים פורנוגרפיים של ילדים (או CSAM בקיצור), והניסיון שלה לשמור על פרטיות הילדים ולהגן עליהם מפני תכנים כאלה – שתכלול כמה צעדים דרסטיים.

אחד הצעדיים הכי דרסטיים שהציגה אפל יושב תחת הכותרת “איתור CSAM”, ובמסגרתו מתכננת אפל – שימו לב – במסגרת הגרסה החדשה של מערכת ההפעלה שלה לניידים (iOS ו-iPadOS) לסרוק תמונות שעלו לענן כדי לוודא שהן לא כוללות תכנים המציגים פגיעה מינית בילדים.

כך תעבוד הסריקה של תמונות המשתמשים בחיפוש אחר CSAM | מקור: אפל

אם במקרה אפל סרקה את התמונות של משתמש ב-iCloud Photos וגילתה שהוא אכן מחזיק בתמונות המכילות תכנים כאלו היא תתריע על כך בפני ארגון ללא מטרות רווח העוסק בילדים נעדרים וילדים הסובלים מניצול. משם הארגון הזה צפוי לשתף את המידע גם עם רשויות החוק בארה”ב.

אפל אומרת כי “השיטה לאיתור CSAM נבנתה בצורה שתשמור על פרטיותם של המשתמשים. במקום לסרוק תמונות בענן, המערכת פועלת on-device ומשתמשת במאגר מידע של ארגונים ללא מטרות רווח הכולל Hashes של תמונות המציגות פגיעה מינית בילדים כדי להשוות אותן לתמונות של המשתמשים”.

אפל ממשיכה ומסבירה כי פיתחה שיטות מבוססות קריפטוגרפיה לביצוע ההשוואה בין התמונות של משתמשים למאגר התמונות שקיבלה, כשהמערכת מתייגת כל תמונה עם מה שהם מכנים Safety Voucher, הקובע אם התמונה אכן מתאימה למאגר או לא. כל המידע הזה מוצפן כך שאפל לא יכולה לדעת אם תמונה תואמת או לא, אלא אם כן משתמש הגיע לרף מסוים של כמות CSAM בחשבון שלו (אם כי אפל לא ציינה מהו אותו רף).

לפי אפל, הרף שהציבה נועד כדי להגיע לרמת דיוק גבוהה יותר – שתבטיח כי יש סיכוי של פחות מ-1 לטריליון לזיהוי שגוי של תמונה בתור כזו המכילה CSAM כשבפועל זה לא המקרה. כשהמערכת של אפל קובעת כי משתמש חצה את הרף, חשבונו מושעה ואפל שולחת עליו דיווח למלכ”ר שאיתו היא עובדת, שמשתפת פעולה עם רשויות החוק. אגב, אפל כבר משתמשת בשיטה דומה לאיתור תמונות דומות באפליקציית המיילים שלה, כאשר גם גוגל משתמש בשיטה דומה לסריקת תמונות בג’ימייל.

שלחו תמונת עירום לילדים? ההורים יקבלו הודעה

השינויים שיגיעו לאפליקציית ההודעות של אפל | מקור: אפל

כלי נוסף שאפל מתכננת להוסיף בגרסאות 15 של iOS ו-iPadOS ובגרסה הבאה של macOS קשור לאפליקציית ההודעות שלה: אפל צפויה להקפיץ בפני הורים וילדים התראות על כך שתוכן מיני נשלח למכשיר של הילדים דרך אפליקציית ההודעות שלה, איימסג’. האפליקציה תטשטש תמונות שיזוהו בתור כאלו המכילות תכנים מיניים, והיא תתריע על כך בפני הילדים שקיבלו את ההודעה והוריהם. האפליקציה גם תעדכן את הילדים שבמקרה שבו יפתחו את התמונות, הוריהם יקבלו על כך דיווח – גם במקרה שבו ילדים ינסו לשלוח בעצמם תכנים מיניים באפליקציית ההודעות. השינוי רלוונטי, כמובן, רק למי ששינו את הגדרות החשבון שלהם לחשבונות משפחתיים.

השינוי האחרון שהציגה אפל בנושא קשור לחיפוש במכשיריה ובשימוש בסירי, שיתריעו בפני משתמשים כשהם ינסו לחפש תכנים הקשורים ל-CSAM ויסבירו להם כי מדובר בתכנים בעייתיים ופוגעניים. בנוסף, שני הכלים של אפל יעזרו לאנשים שיחפשו אחר דרכים לדווח על CSAM.

פנקו את הטלגרם שלכם עם ערוץ הטכנולוגיה הגדול בארץ פנקו את הטלגרם שלכם עם ערוץ הטכנולוגיה הגדול בארץ הצטרפו לערוץ גיקטיים בטלגרם

כל העולם נגד, חוץ מאפל

אף אחד לא מתווכח עם העובדה שצריך למנוע הפצה של תוכן פדופילי, אבל ההודעה של אפל הכתה גלים בקהילה הטכנולוגית, כשעד כה כמעט כל גורם שהביע את דעתו בנושא – מחוץ למשרדי אפל ברחבי העולם – מתנגד למהלך. אחד הקולות המעניינים בנושא הוא וויל קאת’הארט – מנהל חטיבת וואטסאפ בפייסבוק – שבשרשור ציוצים בטוויטר ניגח את ההחלטה של אפל, אותה הוא כינה “מדאיגה מאוד”. לפי קאת’הארט, וואטסאפ לא מתכננת לאמץ את התוכנית של אפל.

לדבריו, בוואטסאפ יצרו מערכת לדיווח על תכנים המציגים פגיעה מינית בילדים ובשנה שעברה דיווחו על כ-400 אלף מקרים כאלו לארגונים שאיתם עובדת גם אפל. בעקיצה לענקית מקופרטינו מבהיר קאת’הארט כי בכל המקרים הללו, וואטסאפ לא שברה את ההצפנה מקצה לקצה של שיחות המשתמשים שלה, אך לא ציין איך הדבר פועל.

בהמשך מחריף קאת’הארט את הטון וכותב כי מה שאפל הציגה במסמך שלה זה מערכת מעקב שניתן בקלות לנצל לרעה, בין אם זו אפל או ממשלה שתדרוש את היכולת לסרוק את התכנים הפרטיים של משתמשים. קאת’הארט תוהה האם המערכת הזו תפעל בסין, מדינה המקיימת מעקב משמעותי אחר תושביה, והאם המערכת חפה מטעויות – כשהוא מדגיש שאפל לא אפשרה לחוקרים חיצוניים (מלבד אלו שעבדו איתה על כך) לבחון זאת. הוא גם מציין חברות המייצרות כלי מעקב (כמו אחת, ישראלית, שחברת האם של וואטסאפ תובעת כרגע) – ומה יקרה אם חברות כאלה יצליחו לקבל גישה למערכת שיצרה אפל?

הביקורת לא עצרה בקאת’הארט, ואלפי אנשי אבטחה, קריפטוגרפיה ופרטיות מרחבי העולם כבר הספיקו לחתום על מכתב פתוח לענקית האמריקאית בבקשה לבחון מחדש את המדיניות שהיא מתכננת להפוך למובנית במכשיריה בכל מערכות ההפעלה החדשות שלה. המכתב, שזכה לשם “מכתב הפרטיות לאפל“, כולל התייחסויות רבות של חוקרים וארגונים לבעיות האפשריות שעולות מהמערכת שיצרה – הן ברמת הפרטיות והן ברמה האבטחתית.

מנגד, בקופרטינו לא ממהרים לעשות פרסה ובמסמך פנימי נשלח לעובדי החברה ושהגיע לידי 9to5mac מנסה להציג סמנכ”ל בחברה בשם סבסטיאן מרינו-מס את המצב דרך עיני הנהלת אפל. “אנחנו יודעים שלחלק מהאנשים יש אי הבנות בנושא ולא מעט מודאגים מההשלכות של המהלך, אבל אנחנו נמשיך להסביר ולפרט את הפיצ’רים שיצרנו כדי שאנשים יבינו”, כתב מרינו-מס לעובדים. לדבריו, לצד הביקורות באפל קיבלו “המון תגובות חיוביות” על המערכת שיצרו.

אושרי אלקסלסי

Your Friendly Neighborhood Geek. יש לכם סיפור טכנולוגי? דברו איתי: Oshry@geektime.co.il

הגב

8 תגובות על "אפל רוצה לסרוק כל תמונה שעולה לענן כדי להלחם בפדופילים – וחוטפת מכל כיוון אפשרי"

avatar
Photo and Image Files
 
 
 
Audio and Video Files
 
 
 
Other File Types
 
 
 

* היי, אנחנו אוהבים תגובות!
תיקונים, תגובות קוטלות וכמובן תגובות מפרגנות - בכיף.
חופש הביטוי הוא ערך עליון, אבל לא נוכל להשלים עם תגובות שכוללות הסתה, הוצאת דיבה, תגובות שכוללות מידע המפר את תנאי השימוש של Geektime, תגובות שחורגות מהטעם הטוב ותגובות שהן בניגוד לדין. תגובות כאלו יימחקו מייד.

סידור לפי:   חדש | ישן | הכי מדורגים
התאומים בוגדנוף
Guest
התאומים בוגדנוף

אמריקה ו – Think about the children
מנטליות מדהימה שגורמת לתוצאות נוראיות בנושאים כאלה!

שם קצר כלשהוא
Guest

שיטת הסלמי: מתחילים בנושא שכולם מסכימים עליו. מי יתנגד חס וחלילה לפגיעה בילדים?
ממשיכים עם ניטור למניעת פשיעה, וטרור (כי זה נחוץ).
אז, כשכולם מתרגלים שעוקבים אחריהם יבוא הניטור לפגיעה בזכויות יוצרים
ובסוף סתם ניטור למטרות רווח ועבודה עם ממשלות.
לא נולדנו אתמול. (אבל אתם כבר יודעים את זה, אתם יודעים עלי הרבה – ובקרוב עוד יותר).
בקיצור תוציאו את הטלפיים שלכם מהמידע שלי. אם ארצה להגן על הילדים שלי – אעשה זאת ב opt in.

אוליאולי
Guest

איזה פדופיל יעשה OPT IN לכזו תוכנית?

שם קצר כלשהוא
Guest

אפשר לייצר בקרת הורים על מכשיר ספיצפי (נגיד של ילד) שתבדוק את התמונות שהוא מקבל מול בסיס הנתונים האמור. ותתריע בפני ההורה בשניה שהוא מקבל תמונה חשודה.

ירון
Guest

ל-“שם קצר כלשהו”

מדוע ניטור לפגיעה בזכויות יוצרים מדאיג אותך?

פשוט אל תפגע בזכויות יוצרים!

שם קצר כלשהוא
Guest

ממש לא מטריד אותי, גם לא ניטור לטרור ולפדופילים (לפחות לא רמזת את זה). מטריד אותי הכיוון הכללי שמוביל לניטור כולל: של הכל ושל כל דבר.

רמי
Guest

מבחינת אפל המשתמשים שלה הם פושעים בפוטנציאל

ההגיון הבריא
Guest

בואו נשים את כולם בכלא ואז לא יהיה פשעים בכלל….
ניסיון טיווח מטומטם של שימוש בתירוץ טוב על מנת לנצל מערכת ענקית לטובות אישיות
גועל נפש כל חברה גדולה מנסה לקחת כמה שיותר פרטיות מהצרכנים שלה

wpDiscuz

תגיות לכתבה: