אתיקה ובינה מלאכותית: יש דבר כזה בכלל?

הבינה המלאכותית היא הלב הפועם של המהפכה התעשייתית הרביעית, אבל צריך לקחת בחשבון גם את הסיכונים שהטכנולוגיה טומנת בחובה. אילו כלים יעזרו לנו להתמודד עם קבלת החלטות מוטה, שיבוש שוק העבודה והבעיות בקבלת החלטות מבוססות אלגוריתם במודל “הקופסה שחורה”?

אנחנו חייבים לעסוק בשאלות האתיות של המהפכה התעשייתית הבאה (צילום: dreamstime)

מאת עו”ד בן חקלאי, יועץ משפטי, מיקרוסופט בישראל, המזרח התיכון ואפריקה

תפיסת הבינה המלאכותית אצל בני אדם מושפעת מחוויות אישיות ומרקע תרבותי. כששואלים אדם ממוצע במזרח הרחוק מה עובר בראשו כשהוא חושב על AI, התשובה היא בדרך כלל עוזרות אישיות וירטואליות (קורטנה, סירי, אלכסה) ורובוטים חמודים המסייעים בעבודות הבית. אדם ממוצע במערב, לעומת זאת, מיד ידבר על קץ האנושות ויפנה לסצנות מעולם סרטי “Terminator”.

טכנולוגיית הבינה המלאכותית (Artificial Intelligence – AI) הופכת במהירות מסחררת לחלק אינהרנטי מהחיים של כולנו. אנחנו רואים הטמעה הולכת וגוברת של טכנולוגיה זו בשלל יישומים – מיישומים תומכי אוטומציה בתעשייה, דרך בוטים בתחומי שירות הלקוחות ואלגוריתמים תומכי החלטות (בפיננסים, ביטוח רפואי ושירות ציבורי) ועד מערכות הגנה ונשק מתקדמות.

למהפכת הבינה המלאכותית תורמים שלושה תהליכים מקבילים ומשלימים: היווצרות מידע עתק ופיתוח יכולות עיבוד ואחסון יעילות שלו; התפתחות בתחום האלגוריתמיקה; ומחשוב ענן, המאפשר נגישות לכוח מחשוב אינסופי כמעט לכל שחקן בתעשייה – מחברת סטארטאפ חדשה ועד חברות ותיקות ועתירות משאבים.

תהליכים אלו הזניקו את חדירת הבינה המלאכותית ליותר ויותר תחומים ותעשיות בקצב כמעט בלתי נתפס. למרות שעדיין ישנם איים של רתיעה מהטמעה של יישומי בינה מלאכותית בתחומים שונים, סביר להניח שבדומה למהפכת הענן, גם החסמים וההתנגדויות לבינה מלאכותית יפחתו משמעותית עם הזמן, וככל שיתברר ששחקנים שבחרו שלא להטמיע יישומי AI נמצאים בנחיתות מול מתחריהם.

בהמשך לכך, הדחיפה ליישום גובר של בינה מלאכותית לא תעצור בתעשייה ובשוק הפרטי ותחלחל גם לממשלות, גופי ביטחון, צבאות וגופים אחרים שבדרך כלל מאופיינים בשמרנות.

בהנחה שכל זה אכן יקרה, יש לנו חובה כחברה לעסוק בשאלות האתיות הכבדות המלוות מהפכה זו, לאתר את ההיבטים השליליים הפוטנציאליים שלה ולחשוב כבר עכשיו על דרכים לרסן אותם.

בעיה בשלושה נעלמים

הבינה המלאכותית מאתגרת אותנו בשלושה תחומים עיקריים כבר היום – וביתר שאת בעתיד הנראה לעין: הטיה בקבלת החלטות (Bias), קושי בהסברתיות החלטות מבוססות בינה מלאכותית ושיבוש שוק העבודה.

1. קבלת החלטות מוטה (Bias). הטיה בקבלת החלטות של אלגוריתם בינה מלאכותית יכולה להיות מושפעת משני גורמים עיקריים: הטיה במידע שעליו הוא מתבסס והטיה ברמת האלגוריתם. הסוג הראשון מתקיים כאשר המידע לא מייצג אוכלוסיות מיעוט או סקטורים שונים בחברה, והוא גורם לייצוג הטיה שקיימת במציאות, או שאינה קיימת במציאות אך נובעת מהתבססות על מידע חסר, אותה לא נרצה לשמר. לעומת זאת, הטיה באלגוריתם עצמו נובעת לרוב מתפיסות המפתחים שהגדירו את ההיגיון שעל בסיסו האלגוריתם פועל.

דוגמה מעניינת להטיה במידע היא אלגוריתם אישור מסגרת האשראי של אפל, שהעניק לגברים מסגרת אשראי גבוהה פי 20 בהשוואה לנשים מאותו מעמד סוציואקונומי. ישנן דוגמאות רבות נוספות, בהן הטיה נגד שחורים במערכת הבריאות בארה”ב, במשכנתאות ובאלגוריתם זיהוי פנים.

2. קושי בהסברתיות. מהנדסי אלגוריתמיקה רבים ומפתחים המתמחים בבינה המלאכותית יטענו כי אלגוריתם AI פועל על פי פרמטרים והיגיון שאינם ניתנים להסברה. במילים אחרות, מדובר ב”קופסה שחורה” שמקבלת החלטות על פי תבניות שרק האלגוריתם יכול לבנות, והמחיר של יצירת מנגנון הסברתיות לכל החלטה הוא בלתי מתקבל על הדעת.

זהו טיעון בעל משקל, אבל ככל שקבלת החלטות מבוססת AI משפיעה על יותר ויותר בני אדם ברחבי העולם, אנחנו כחברה מחויבים לדרוש סטנדרט גבוה יותר ממפתחים ומספקי מוצרים ושירותים. לא ייתכן שבקשתו של אדם לקבלת הלוואה, כיסוי ביטוחי או טיפול רפואי תידחה והוא לעולם לא ידע מדוע. יצירת אמון בטכנולוגיה, ובוודאי כשהיא כל כך מהפכנית, מחייבת הסברתיות ושקיפות בקבלת החלטות.

3. שיבוש משמעותי (Disruption) ושינויי עומק בשוק העבודה. ככל שנראה הטמעה עמוקה ומהותית יותר של יישומי בינה מלאכותית ואוטומציה בתעשיות שונות, החשש הוא שיותר ויותר עובדים ובעלי מקצוע, בעיקר ממעמד הביניים הנמוך, יאבדו את עבודתם ויוחלפו בכלים טכנולוגיים. יש לכך דוגמאות כבר היום – בעמדות תשלום אוטומטיות ברשתות מזון, ברכישת פוליסות ביטוח או חופשות ללא צורך בסוכן ובהטמעה של רובוטים במפעלי ייצור ומרכזים לוגיסטיים.

ישנן סוגיות אתיות נוספות הנוגעות להטמעת יישומי בינה מלאכותית במשק, לחלקן משקל רב ביחסים בינלאומיים, במתחים גיאופוליטיים ובהיבטים כלכליים וחברתיים. במקרים רבים, ובמיוחד כשמדובר על יישומים חוצי תעשייה או מגזר (רכבים אוטונומיים לדוגמה), הסיכונים האלה יתחדדו ויהיו חלק מסל שיקולים רחב שמקבלי ההחלטות בממשלות ברחבי העולם יצטרכו להביא בחשבון.

להכשיר, לגוון וללמד את האלגוריתם להתעלם

הפתרונות האפשריים לשאלות האתיות האלה הם רבים ומגוונים, ונראה כי רק שילוב ביניהם יוכל לצמצם את ההשפעות הפחות רצויות של הטמעת AI במשק. לדוגמה, הכשרה וגיוס של מפתחים מרקעים שונים יסייעו בצמצום הסיכון להטיה אלגוריתמית, ואולי אפילו בקידום צדק חברתי וביסוס אפליה מתקנת. באשר להטיית מידע, ניתן לכלול באלגוריתם תנאים שיובילו להתעלמות מוחלטת מפרמטרים מסוימים שמשקפים הטיה קיימת בחברה – כמו מין, גזע ודת.

צריך גם לתת משקל משמעותי למעורבות הגורם האנושי בקבלת החלטות שמשפיעות על חיינו, בתחומים כמו בנקאות, רפואה, ביטוחים וכדומה. לא מדובר בחותמת גומי אנושית, אלא בגורם אנושי שגם יידע להסביר את ההחלטה ויהיה אחראי לתוצאותיה.

מתן מענה חברתי לסיכונים האלו מחייב היכרות עם הטכנולוגיה ולימוד מעמיק של השלכותיה. מסלולי הכשרה ייחודיים בתחום האתיקה בבינה מלאכותית יכולים לסייע רבות למקבלי החלטות בגישור על הפערים, בקבלת החלטות מודעות ובצמצום וניהול הסיכונים.

כמובן שגם לרגולציה תפקיד משמעותי במתן מענה לחלק מסיכונים אלו ובהתוויית המסלול במסגרתו נכון להתקדם – העצמת האדם ולא החלפתו.

גם לסקטור הפרטי, ולחברות הטכנולוגיה בפרט, יש תפקיד חשוב ואחריות לקידום השיח וההכשרות בנושאים אלו. חברות שונות בישראל מעמידות לרשות הציבור הכשרות מגוונות בתחומים אלו – קורסים מקוונים, הכשרות ייעודיות אצל לקוחות וגופי ממשלה וקורסי הכשרות מנהלים.

ככל שנדון יותר באתיקה בבינה מלאכותית, ככל שנרבה לאתגר את עצמנו בשאלות שחלקן עדיין תיאורטיות, ככל שנקפיד על הגברת המודעות לנושא – כן ייטב. אלו אינן שאלות שנצטרך להתמודד איתן בעוד עשר שנים – אלו שאלות שאנחנו צריכים להתמודד איתן כבר עכשיו.

הכתבה בחסות Microsoft

על מנת לאפשר מיצוי מקסימאלי של תשתית הענן שלה, מפעילה מיקרוסופט את תוכנית ההכשרות הארגונית, המעודדת תרבות ארגונית של למידה והעשרה, טיפוח יכולות והגברת מוטיבציה ומעורבות של העובדים.

התוכנית מסייעת לארגונים להתמודד עם פערי הידע של העובדים, לאפשר אימוץ מהיר ויעיל של Azure, ולקדם את הקהילה הטכנולוגית על ידי התמקצעות ביישומי Azure, ויתר הכלים והמוצרים השונים של מיקרוסופט. מאז השקתה ביולי 2019, פועלת התוכנית במאה מדינות והסמיכה כ-430 אלף משתתפים ברחבי העולם, במקצועות ניהול Azure, הנדסת נתונים, האבטחה, DevOps, בינה מלאכותית ועוד.

לפרטים נוספים לחץ כאן.

כתב אורח

אנחנו מארחים מפעם לפעם כותבים טכנולוגים אורחים, המפרסמים כתבות בתחומי התמחות שלהם. במידה ואתם מעוניינים לפרסם פוסט בשמכם, פנו אלינו באמצעות טופס יצירת קשר באתר.

הגב

2 תגובות על "אתיקה ובינה מלאכותית: יש דבר כזה בכלל?"

avatar
Photo and Image Files
 
 
 
Audio and Video Files
 
 
 
Other File Types
 
 
 

* היי, אנחנו אוהבים תגובות!
תיקונים, תגובות קוטלות וכמובן תגובות מפרגנות - בכיף.
חופש הביטוי הוא ערך עליון, אבל לא נוכל להשלים עם תגובות שכוללות הסתה, הוצאת דיבה, תגובות שכוללות מידע המפר את תנאי השימוש של Geektime, תגובות שחורגות מהטעם הטוב ותגובות שהן בניגוד לדין. תגובות כאלו יימחקו מייד.

סידור לפי:   חדש | ישן | הכי מדורגים
דג ברשת
Guest
העתיד נראה לא טוב עם בינה מלאכותית. אבל אין ברירה, אין מה לעשות – וככה יקרה. היצרנים יקדמו פיתוחים, על הדרך יכניסו את עצמם לתלות של גופים ציבוריים בישומים האלו, תוך טיפול נאות במקבלי החלטות. לא, לא צריך כסף, וכנראה אך חברה גדולה לא תתן בצורה ישירה – כי יש הרבה מאוד שווי ערך אחרים למקבלי החלטות פוליטיים ואירגוניים, להם ולמקורבים להם. הכותב מעלה בטוב טעם נקודות בעייתיות, רק שהן לא כל הסיפור וכנראה באות לקדם פיתוחים . נהיה יותר לכיוון של טרמינטור, תוך פיתוי האיש הקטן בדברים “מגניבים” כמו רובוט חמוד לבית או רכב אוטונומי, צ’ופצ’יק חברתי להחצנת פוזה… Read more »
משה
Guest

אני מאמין שקיים פער בין מה שקורה בפועל לבין מה שהציבור יודע. לדוגמא: התקשורת בתקפוה זו אוהבת לגנח בטסלה והמחשב השוכן ביינות ארבעת הגלגלים המעטרים את המכשיר. ואכן, המחשב טועה מעת לעת ואדם זה או אחר משלם בחייו. ברם, הנתונים יבשים יודעים להראות שארועים מסוג זה (תאונות) מתרחשות בטסלה אחת ל 4 מליון ק״מ וברכב רגיל (נטול בינה) זה הרבה פחות ממליון ק״מ.
אני מכנה את הפער הזה ׳פער תדמיתי׳.
הפער הנ״ל קיים במגוון תחומים שהתקשורת אוהבת או צריכה להתעסק איתה בין אם מדובר בבינה מלאכותית ובין אם בחיסונים עסקינן.

wpDiscuz

תגיות לכתבה: