סטארטאפ ישראלי נעזר ב-AI כדי למנוע את מקרה ”כרמל מעודה” הבא

הסטארטאפ הישראלי EyeKnow החליט להזריק AI למצלמות בגני הילדים כדי לזהות ולמנוע מראש התנהגות אגרסיבית ואלימות נגד ילדים

מקור: Eyeknow

השבוע הרשיע בית המשפט המחוזי את הגננת כרמל מעודה בהתעללות בפעוטות חסרי ישע בגן שניהלה בראש העין. אבל מעודה לא לבד. על פי נתוני מרכז המחקר של הכנסת נפתחו בין השנים 2011-2016 יותר מ-500 תיקים פליליים בגין התעללות מבוגרים בילדים בהם טיפלו. אמנם יותר ויותר גנים מכניסים מצלמות, שאמורות להרגיע את ההורים, אבל מכיוון שלרוב ההורים אין אפשרות לעקוב אחרי עשרות שעות צילום מדי שבוע, מציע סטארטאפ ישראלי חדש להיעזר ביכולות AI, כדי למנוע את מקרה ההתעללות הבא.

ה-ML שימנע אלימות נגד ילדים?

הסטארטאפ EyeKnow מפתח מערכת המבוססת על שימוש בבינה מלאכותית ולמידת מכונה המנטרת בזמן אמת מקרים של אלימות כלפי ילדים בגני הילדים. עם הטמעת המערכת היא מייצרת Dashboard ומערכת התראות חכמות על המתרחש בזמן אמת.

בחברה אומרים כי את מודלי ה-ML שבהם הם משתמשים במוצר שהם מפתחים אימנו על מאגרי תוכן שקיבלו במסגרת שיתופי פעולה עם גני ילדים. בשיחה עם גיקטיים מספר תומר שגיא, מנכ”ל החברה, שהמערכת כוללת מודלים שפיתחו in-house לצד קוד פתוח, כשהבסיס המחקרי שלהם מגיע מזיהוי מקרי אלימות והתנהגות אגרסיבית בקהלים וברחובות. המודלים הללו עוברים התאמה ואימון על מידע שקיבלו המפתחים מגני הילדים, וזאת כדי לבצע התאמות לזיהוי מקדים של אלימות. האימון, כך אומר שגיא, נעשה ע”י שילוב של רשתות עצביות עמוקות (Convolutional neural networks) וראייה ממוחשבת על הדאטה מגני ילדים שאליו קיבלו גישה.

למצולמים אין קשר לכתבה | מקור: EyeKnow

“אנחנו מאמנים מערכת שמזהה התנהגויות אגריסיביות ולא רק אלימות, כדי לאתר ולהדריך מטפלות, לשנות התנהגות ולמנוע אלימות בסופו של דבר”, אומר שגיא על המערכת שפיתחו. שגיא מספר כי המערכת שפיתחו מאומנת ע”י דאטה שהחברה קיבלה ולא על צילומים של מקרי התעללות שרצים ברשתות החברתיות ומפורסמים בגופי התקשורת. עוד הוא מדגיש כי המערכת של EyeKnow אגנוסטית לחלוטין ועובדת על כל תשתית מצלמות אבטחה.

“המהימנות שלנו מאד גבוהה כי השיטות שלנו מבוססי AI ולמידה עמוקה ודאטה אמיתי שמגיע מהשטח ולא סימולציות או שיטות זיהוי אנומאליות שהמתחרים שלנו משתמשים בהם” אומר שגיא. “בנוסף הפוקוס שלנו על חיזוי ולא זיהוי. כלומר חיזוי אירועי אלימות לפני שהם קורים”.

מה לגבי הפרטיות? מדובר הרי בצילומים של תינוקות, פעוטות וילדים? לפי שגיא, ב-Eyeknow מצפינים את כל המידע שיוצא מגן הילדים, כדי למנוע חשיפה אפשרית – של ילדים וגננות כאחד.

הרעיון הגיע בעקבות מקרי האלימות

שגיא מספר כי הרעיון להקמת הסטארטאפ הגיע אחרי שורה של מקרי אלימות נגד ילדים וקשישים, שזכו לסיקור נרחב בתקשורת – בהם מותה של הפעוטה יסמין וינטה, שסייעת בפעוטון שבו חונכה נשכבה עליה וחנקה אותה למוות. את EyeKnow הקים שגיא יחד עם שני מייסדים נוספים, אחד מהם חוקר מנוסה מאד מתחום הראייה הממוחשבת ודוקטורנט מאוניברסיטת בר אילן, והשני מגיע מתחום עיבוד אותות ועיבוד קול – ואף פיתח פרויקט לזיהוי אלימות נגד קשישים בבתי אבות. החברה נמצאת כרגע בשלב MVP ומנהלת פיילוט עם מספר גנים בשיתוף פעולה עם חברת תקשורת מובילה. החברה, שעובדת במתכונת Bootstrap, היא בוגרת האקסלרטור החברתי 8200 אימפקט.

אושרי אלקסלסי

Your Friendly Neighborhood Geek. יש לכם סיפור טכנולוגי? דברו איתי: Oshry@geektime.co.il

הגב

17 תגובות על "סטארטאפ ישראלי נעזר ב-AI כדי למנוע את מקרה ”כרמל מעודה” הבא"

avatar
Photo and Image Files
 
 
 
Audio and Video Files
 
 
 
Other File Types
 
 
 

* היי, אנחנו אוהבים תגובות!
תיקונים, תגובות קוטלות וכמובן תגובות מפרגנות - בכיף.
חופש הביטוי הוא ערך עליון, אבל לא נוכל להשלים עם תגובות שכוללות הסתה, הוצאת דיבה, תגובות שכוללות מידע המפר את תנאי השימוש של Geektime, תגובות שחורגות מהטעם הטוב ותגובות שהן בניגוד לדין. תגובות כאלו יימחקו מייד.

סידור לפי:   חדש | ישן | הכי מדורגים
הלו הלו
Guest

מבחן קבלה והערכה ימנעו את המקרים הבאים, לא AI. זה לשים פלסטר על שבר ברגל

אבי
Guest

אי אפשר להגדיר את זה יותר טוב

בצל כחול
Guest

לא נכון.
אני רוצה להאמין שברוב המקרים שבהם מעורבות גננות או סייעות, לא מדובר בנשים רעות. אלא פשוט שחיקה של הבנאדם. זאת לא עבודה קלה בכלל.
בשום צורה אני לא מצדיק את ההנהגות החלאתית הזאת ומגיע להם לשבת בכלא. אבל אם מערכת AI יכולה להתריא על דפוס התנהגות שהולך ומשתנה עם הזמן (משתנה לרעה כמובן) אז גם הילד שלך ינצל ממקרה ההתעללות עצמו, וגם הגננת תטופל ויחסך ממנה זמן בכלא.

צביקה
Guest

זה לא במקום, זה בנוסף

Mailckon
Guest

היום זה איסוף דתא של ילדים ומחר זה סיווג לפי התנהגות. ומי יודע לאן זה עוד יכול להוביל. זה צריך להיות ברור, משין לארנינג- לא על בני אדם

משתמש אובונטו
Guest

AI? יפטרו גננת שעזרה לילד לקום אחרי שנפל, או שמחליפה טיטול או כל דבר אחר.

אם זה דיפ לרנניג אז עוד יותר גרוע. המערכת תציע להעיף ילד כי הוא שחור, לכלוא גננת שהשם שלה מתחיל בכ’ ותשלח התראות להורים כל פעם שגננת נותנת מים לילד.

בהצלחה עם זה…

אף אחד
Guest

יש לך עוד שטויות לכתוב?

אבי
Guest

נניח, עזבו אלימות פיזית.
על אלימות מילולית, הילד שלכם ישלם במהלך חייו המון (ולפסיכולוג, במקרה הטוב).
אותו דבר על אפליה, או שאר התנהגויות מזיקות, התנהגויות שאינן מבינות לנפש הילד.

אז אל תתנו את ילדיכם לגן שאינכם מכירים את הנפשות הפועלות, כהגונות, ומבינות לנפש הילדים.

לפתח טכנולוגיה לזיהוי אלימות פיזית?!
זה לתפוס את הפשע מאוחר מדי, קצת מדי.
לא עז הייתי סומך.

Mailckon
Guest

היום זה איסוף דתא של ילדים ומחר זה סיווג לפי התנהגות. ומי יודע לאן זה עוד יכול להוביל. זה צריך להיות ברור, משין לארנינג- לא על בני אדם

המתעניין
Guest

איך זה מתיישב עם חוק המצלמות?

המתעניין
Guest

איך זה מתיישב ביחד עם חוק המצלמות?

אנונימי
Guest

איך חוק המצלמות לא מפריע לעבודת החברה?
הרי הוא קובע כי אף אחד לא מורשה לצפות בצילומים פרט למשטרה ולמפקח

אדם שנמאס לו
Guest

צריך את החרא הזה בשביל שגננות יפסיקו להרביץ?
אל תתנו לכל פלוץ שמצליח לנשום בצורה רצינית להיות גננת/סייעת לא נצטרך את הטכנולוגיה הזו.

אחד
Guest

מי ששלוח את הבן שלו לגן על סמך טכנולוגיה כזו, פשוט שונא אותו. אין תחליף לאימון. רוב הגננות בסדר, אנחנו לא חיים במהדורת חדשות.

דטה סיינטיסט
Guest
בתור דטה סיינטיסט אני יכול לומר לכם שזה סופר בעייתי וזה הולך ליצור הטיות קוגניטיביות קשות. היישום הזה מסוכן בשל חוסר הדיוק שלו. נכון, אפשר למדוד זמן שבו ילד הושאר ללא מבוגר לידו. האם זה בהכרח דבר רע? אולי הילד עושה פעילות עצמאית? אולי הוא שומע מוזיקה ברקע? דיפ לרנינג לא יכול לזהות ילד בוכה רק מהתמונה ללא ניתוח של הסאונד. שיפ לרנינג גם לא יגיד למה הילד בוכה – גם בבית הילד בוכה זה לא אומר שמתעללים בו. דיפ לרנינג לא יכול לזהות צביטות, לחיצות חזקות, התעללות רגשית ודיבור מלוכלך.. כל הדברים שהם ההתעללות שהייתם רוצים לגלות. זה כן… Read more »
מאור
Guest

במקום לדאוג שלא כל אחת מטורפת תיהיה גננת שמים AI ומצלמות.
מדינה של אפסים בורים.

דורון
Guest

איך הרעיון מתיישב עם חוק המצלמות שאוסר את הדברים האלו?

wpDiscuz

תגיות לכתבה: