אבל זה מה שהאלגוריתם דרש ממני

בעיית הקרונית מוכרת היטב בתחום האתיקה. השאלה האם נהג צריך לסטות מהכביש כדי להציל שלושה ילדים אבל כך להרוג אדם אחד חוזרת אלינו בגירסאות רבות. אם נתנהג אחרת אם האדם שאנחנו הורגים הוא מדען מפורסם? מה נעשה אם שלושה הילדים ביצעו פשע לפני חמש דקות? התפתחותם של מכוניות אוטונומיות חידדה את הדילמה מפני שאם קיימת אפשרות לתכנת את המכונית לקבל החלטות מסויימות, מהן ההחלטות הנכונות שיש לתכנת, וכמובן גם מי יקבע? מתברר שיש עדיפויות שונות בתרבויות שונות, ולכן נשאלת עוד שאלה – האם לתכנת את המכוניות בהתאם לערכים האתיים של המדינה שאליה המכונית משווקת. ב-The New Yorker קרולין לסטר דנה בסוגיה הזאת:
The decisions made by Germany will reverberate beyond its borders. Volkswagen sells more automobiles than any other company in the world. But that manufacturing power comes with a complicated moral responsibility. What should a company do if another country wants its vehicles to reflect different moral calculations? Should a Western car de-prioritize the young in an Eastern country? Shariff leans toward adjusting each model for the country where it’s meant to operate. Car manufacturers, he thinks, “should be sensitive to the cultural differences in the places they’re instituting these ethical decisions.” Otherwise, the algorithms they export might start looking like a form of moral colonialism. But Di Fabio worries about letting autocratic governments tinker with the code. He imagines a future in which China wants the cars to favor people who rank higher in its new social-credit system, which scores citizens based on their civic behavior.

A Study on Driverless-Car Ethics Offers a Troubling Look Into Our Values

וכמובן במקרה של תאונה שגורמת למותו של מישהו (והצלה של מישהו אחר) מי בסופו של דבר אחראי. זה כנראה לא הנהג, אבל האם זה חברת המכוניות, או אולי מי שתכנת את האלגוריתם, או מי שהזמין אלגוריתם מסויים. העולם מורכב, והמכוניות האוטונומיות רק מוסיפות למורכבות הזאת.