האם הרופאות ועורכות הדין שלנו יוחלפו באלגוריתמים? | בצלאל אקדמיה לאמנות ועיצוב ירושלים

האם הרופאות ועורכות הדין שלנו יוחלפו באלגוריתמים?

פורסם ב
12.7.20

בשנת 2018 פגעה מכונית אוטונומית של אובר בהולכת רגל בשם איליין הרצברג. הפגיעה היתה קטלנית. בווידאו של האירוע נראה ה״נהג״ רגעים לפני הפגיעה כשהוא כלל אינו מתבונן על הכביש, אדיש למתרחש בדרך ובוטח באלגוריתם שמניע את המכונית ליעדה. רגעים ספורים אחר כך, עם הפגיעה, נראה ה״נהג״ המום ומזועזע.
באותה שנה גם יצא לאקרנים הסרט הדוקומנטרי The Truth of the Killer Robots, הבוחן מקרים שבהם רובוטים ותהליכי אוטומציה הובילו לפגיעות קטלניות בנפש.

תמונה
“The Truth About Killer Robots"

האם התאונה הייתה בלתי נמנעת? במה היא דומה ובמה היא שונה מתאונות שהביאו איתן את המצאת המטוס והרכבת למשל?
 
המכונית האוטונומית (לצד פיתוחים נוספים) מופעלת על-ידי אלגוריתמים מבוססי ״למידת מכונה״ (Machine Learning), שמכונים גם לעיתים ״רשתות נוירונים״ (Neural Networks). אלו אלגוריתמים המתפתחים באופן עצמאי, כאשר האבולוציה שלהם אינה נשלטת ע״י המתכנן או המתכננת, אלא היא מבוססת על הנתונים שהאלגוריתם מוזן בהם. האלגוריתם מעבד את הנתונים ובונה לעצמו דפוסים וכללי פעולה, שאינם נקבעים מראש, ובמקרים רבים אינם ניתנים להסבר. אופן פעולתם של אלגוריתמים חכמים אלה הוא מעין ״קופסה שחורה״, בלתי חדירה, והפיתוח שלהם כונה "אלכימיה" ע״י עלי רחימי, בעבר אחד המהנדסים הבכירים בגוגל. זאת כיוון שגם המהנדסים שפיתחו אותם אינם יכולים לחדור ולפענח את ההיגיון הפנימי המוביל לתוצאותיהם.
 
קיימת תפיסה אופטימית יותר ביחס לאלגוריתמים אלה, ששורשיה ב״חוקי הרובוטיקה״ שניסח סופר המדע הבדיוני אייזק אסימוב עוד בשנות ה-40 של המאה ה-20. לפיה בעת תכנון אותם רובוטים או אלגוריתמים, נוכל לכלול במערכת ההפעלה שלהם צווים מוסריים שמשקפים את תפיסותינו הערכיות ויגנו עלינו בני האנוש. אך גם אם יש בסיס לתפיסה זו, ואלגוריתמים יכולים ללמוד ״כללי מוסר״ אז עולה השאלה: מהם הכללים שנבחר ללמד אותם? האם ישנה תשתית אתית כלל אנושית שנוכל להסכים עליה? וכיצד נוכל למנוע מהאלגוריתמים החכמים הללו לדחות את התפיסות המוסריות שלנו, ולהחליף אותן בכללי פעולה אחרים?
 
שאלה נוספת עולה מפיתוח מערכות חכמות אלו מגיעה ממערכות ייעוץ אוטונומיות בשם Watson של חברת IBM. זוהי מערכת ייעוץ רפואית שאנו מתבקשים לתת בה אמון דומה לזה שאנו נותנים ברופאינו. לצידה מפתחת IBM את מערכת ה-Debater, המנסחת טיעונים מיטביים לכל טענה, בדומה לתפקידו של עורך דין. האם הידיעה שבבסיס שתי מערכות אלו עומדת תשתית דומה, תגרום לנו לדחות אותן? האם אותו אלגוריתם יכול להחליף את הרופאה ואת עורכת הדין שלנו בעת ובעונה אחת? 

תמונה
צילום מסך מתוך עימות בנושא סבסוד גני ילדים שבו השתתפה מערכת הDebater של IBM כאחד המתדיינים

במחלקה לתרבות חזותית וחומרית נבחן את האופן שבו הטכנולוגיות החדשות מעצבות את החברה שלנו ונשאל על המשמעויות התרבותיות והאתיות שלהן. יחד ננסח דרכים שבהן חדשנות טכנולוגית יכולה להיות שקופה, מיטיבה ואחראית.
 
ד״ר ליאת לביא
ראש תכנית התואר השני בתקשורת חזותית ומרצה במחלקה לתרבות חזותית וחומרית