מה שטוב בשבילי, איננו בהכרח טוב בשבילנו

במידה רבה מאד הטכנולוגיות החדישות שמציפות את חיינו משרתים את הפרט על חשבון הכלל. שירותים כמו Uber ואלה שמבקשים להיות ה-"Uber for …" בהחלט מקלים עלינו באופן אישי, אבל במחיר ציבורי שמעטים לוקחים בחשבון. איאן בוגוסט כותב על התופעה הזאת, וטוען שמדובר בתפיסה מכוונת:
The technology sector’s global conquest rests partly on its total unconcern for the real-world impact of its products and services. Tesla beta-tests its “autopilot” semiautonomous mode on public roads because it can get away with doing so. Google Maps and Waze optimize for the fastest trip, no matter what effect those routes might have on traffic or safety. Amazon has evaded responsibility for damages, injuries, and deaths caused by its delivery network by presenting it as arm’s-length contractors, even as the retail giant imposes pressure to increase the speed and volume of distribution. Technology firms cover their exposure to risk the same way they create it: through willful ignorance.

הוא כותב שכאשר התופעה הזאת נעשית רחבה כפי שהיא נעשית אנחנו מתרגלים למצב שבו אנחנו מתמקדים בבעיות שמעסיקות אותנו באופן אישי, ומאבדים עניין בפתרון כללי, חברתי:

The industry has undoubtedly improved people’s individual, private lives—that’s the business model. But it has not necessarily benefited their communal ones. The vision of the future that firms such as Uber, Amazon, and Facebook have grown rich selling is a decidedly individualist one: Get a ride just for you, wherever you are, via Uber. Receive almost any product tomorrow, without leaving home, from Amazon. Hear from only the people and groups you choose on Facebook. Technology products can improve health and safety, but largely at the personal level: carrying a cellphone for emergencies, or wearing a fitness tracker to motivate regular exercise. Solving one’s own problems can de-escalate interest in solving communal ones.

Technology Sabotaged Public Safety

אפשר היה לחזות שדבר כזה יקרה, אבל אנחנו כנראה הסתנוורנו על ידי ההבטחה של הקלה אישית שכל כך יפה נוצצה לנו.

אבל כך הדברים תמיד התנהלו

הידיעות של MIT, ובמיוחד ה-Media Lab המשיך לקבל תרומות מג'פרי אפשטין זיעזע, לפחות לזמן קצר, את קהילת הטכנולוגיות החדישות. רבים שאלו איך אנשים הגונים, גיבורי תרבות נוסח עמק הסיליקון, יכלו להסכים לקבל כסף מאדם שפל כזה. מתיו אינגרם, ב-Columbia Journalism Review נותן קצת פרספקטיבה חשובה לפרשה:
Larkin said some inside MIT were frustrated that the Epstein donations got so much attention, when the institution also recently accepted money and a visit from Saudi Arabian leader Mohammad bin Salman, who has been implicated in the vicious killing of Washington Post journalist Jamal Khashoggi. “One Media Lab alum told me she was, on balance, more appalled by MIT’s ties to the late David Koch than by the ties to Epstein,” said Larkin, since the Kochs had done so much to undermine the Institute’s core values with their support of climate change-denying groups.

Some lessons from the MIT Media Lab controversy

מתברר, אם לא ידענו את זה קודם (והיינו צריכים לדעת) שאין חדש תחת השמש. אפשטין לא היה הדמות המפוקפקת הראשונה שממנו הסכימה, או ליתר דיוק שמחו, לקבל תרומות. כך הדברים מתנהלים.

אוסקר ויילד אמר את זה מזמן

מי שרוצה להיות "משפיען" באינסטגרם צריך לעמול קשה בלהמציא את עצמו מחדש. הרי אחרי שההשפעה הופכת את החדש לנורמה צריכים למצוא משהו אחר (וחדש, כמובן) כדי להמשיך להשפיע. מתברר שהחדש התורן הוא להיות "טבעי". כבר לא מצטלמים בצורה שמבליטה את האידיאל, אלא באופן יום-יומי. כתבה ב-The Yorker מתארת את התהליך:
But influencers were given their name for a reason: their value lies in their ability to subtly shift the tastes, desires, and behaviors of the people watching them. People feel compelled to do what they’ve observed others doing, which is why the spike in self-revelation has happened all at once. In her essay, Gevinson writes that she was invited to Instagram headquarters, where she was given insights that were both heartening and frightening. “Aspirational photos did better a few years ago, but now users crave posts that seem to be behind-the-scenes, candid,” she wrote. (“Seem” being the operative word.) Research by marketing companies confirms this trend; the consensus is that, at least on Instagram, the art of influencing is now about “relatability.” But what made Gevinson’s essay so compelling was that she admits to having always tried to be relatable—and, in her analysis, that effort had only twisted her into deeper knots of deception. “Getting real,” it turned out, was not a corrective. It was another ruse, designed to appeal to an audience, and used to brush aside the mess.

The Rise of the “Getting Real” Post on Instagram

ב-"חשיבותה של רצינות" אוסקר ויילד סיכם את הנושא בצורה מדויקת: To be natural is such a very difficult pose to keep up..

כמו מה שחשבנו לפני דור

כתבה ב-Technology Review מדווחת על הנסיונות של רוסיה לנתק את עצמה מהאינטרנט הגלובלי וליצור רשת פנימית שבה אפשר יהיה, יחסית בקלות, לשלוט. מתברר שפוטין באמת חושש שהגישה למה שקורה בעולם מעוררת רצון לשינוי אצל ניתניו:
“The threat is real. The number of people who access antigovernment internet content is growing,” says Kirill Gusov, a journalist and political expert in Moscow. The government controls the media and television, but the internet remains beyond its grasp. “I’d not be surprised if the FSB [the successor to the KGB] approached Putin and reported on this attack, which coincided with their desire to suppress internet freedom because they are losing control over society,” he says.

Russia wants to cut itself off from the global internet. Here’s what that really means.

דווקא בתקופה שבה נדמה שההבטחה המקורית של האינטרנט התחלפה במציאות עגומה של פייק ניוז והעדר הפרטיות, החשש של פוטין מעורר תקווה. אולי בכל זאת משהו טוב ייצא מכל זה.

כך או כך, אנחנו שבויים בידי האלגוריתם

קרן האו כותבת על הנסיונות של מהנדסים ב-YouTube לשכלל את אלגוריתם ההמלצות של האתר. המצב מוכר – ליד הסרטון שבו אנחנו צופים מופיעה רשימה של הצעות לצפייה נוספת (וגם בסיום הצפייה באיזור הסרטון עצמו). ל-YouTube אינטרס שנמשיך לצפות בעוד ועוד סרטונים, כך שאפשר להגיש לנו עוד ועוד פרסומות. חוקרים רבים טוענים שלמערכת ההמלצות נטייה להקצין ולהגיש לנו סרטנים שהם שנויים במחלוקת. רבים קוראים ל-YouTube לטפל בבעיה. וכך כנראה מנסים לעשות באמצעות מספר ניסויים. האו כותבת על הנסיונות האלו, ועל מחקר פנימי שנערך ב-YouTube והתגובות אליו:
Several experts who reviewed the paper said the changes could have perverse effects. “In our research, we have found that YouTube’s algorithms created an isolated far-right community, pushed users toward videos of children, and promoted misinformation,” Jonas Kaiser, an affiliate at the Berkman Klein Center for Internet & Society, said. “On the fringes, this change might […] foster the formation of more isolated communities than we have already seen.” Jonathan Albright, the director of the digital forensics initiative at the Tow Center for Digital Journalism, said that while “reducing position bias is a good start to slow the low-quality content feedback loop,” in theory the change could also further favor extreme content.

YouTube is experimenting with ways to make its algorithm even more addictive

צריכים להודות שיש כאן בעייתיות – יכול להיות שהורדה באחוז הסרטונים הבעייתיים שיוגשו לצופים יוביל להגשת יותר סרטונים שמשתמשים ירצו לראות. ויותר קליקים אומר יותר כסף. אישית, אינני יודע אם יש פתרון אופטימלי.

הכל מילים, ובכל זאת יש הבדל גדול

נדמה לי מנתחים פשוט או יותר כל תכונה של דונלד טראמפ, ולמען האמת, יש מה לבחון ולנתח. ג'ון מקוורטר (John McWhorter), מרצה לבלשנות באוניברסיטת קולומביה, בוחן את הלשון של טראמפ ומדגיש שהוא אוראלי כמעט באופן בלעדי. תוך כדי כך הוא מציין הבדל חשוב מאד בין המילה המדוברת לבין הכתובה:
One might suppose that oral and print language are equivalent alternatives. But they are not. Orality encourages a focus on the personal; speaking expresses feeling. Print encourages a focus on the impersonal, the disinterested, the analytical. This is hardly to say that oral language precludes such thinking; however, print makes more space for it. Orality encourages compact parcels of thought—we speak in quick little packets of eight or nine words. Print encourages the extended argument, the careful case. Orality reinforces what you know—recall “shithole countries.” Print collects information we don’t memorize, ever available for consultation and analysis—think of reflection, statecraft, leadership. The printed word encouraged and still encourages intellectual and even spiritual transformations in what it is to be human.

Trump’s a Liddle’ Scary

יש שטוענים שתקופת הדפוס היתה בסך הכל תקופה קצרה בין שתי תקופות שבהן האוראליות שולטת. אם זה נכון, יכול להיות שאנחנו בסכנה של לאבד משהו חשוב מאד לאנושיות שלנו.

נפלאות הפלטפורמה

אין ספק שעבור נוסעים רבים השרות של Uber יעיל וכדאי, אם כי נעשה יותר ויותר ברור שהמצב הזה איננו נכון עבור הנהגים. נהגי Uber, כמו מועסקים אחרים במגוון פלטפורמות, אינם מוגדרים כ-"עובדים" מן המנין, ובגלל זה הם אינם זכאים לזכויות של עובדים. הפלטפורמות האלו אינם "מעסיקים" את העובדים, אלא פשוט מתווכים בין מציע השרות לבין מי שמקבל אותו. נעם כהן כותבת על אחיזת העיניים הזאת:
In the face of such an attention-focusing cost estimate, Uber’s top lawyer, Tony West, proffered an ingenious defense: The company’s drivers aren’t employees, even under the proposed new law, because Uber’s main business isn’t driving people around. The company, he told reporters on Wednesday, “is serving as a technology platform for several different types of digital marketplaces.” (Uber also offers food and freight delivery, along with rental bicycles and scooters.) Thus, West said, the whole ride-hailing project would fall “outside the course of Uber’s usual business,” as the law stipulates.
הגישה הזאת הפכה למובילה ביזמויות רבות, והיא מביאה לרווחים נאים אצל בעלי החברות (אם כי Uber ממשיכה להפסיד כסף) ותנאיי עבודה מחפירים אצל העובדים:

There is a reason that some people call Silicon Valley a font of cruelty. The platform defense seems like an easy justification for turning your eyes away from social destruction. But even more insidious is the trashing of basic, time-tested standards for relationships, whether between news tellers or storytellers and their audience, between hosts and their guests, between employers and their employees.

How Tech Firms Like Uber Hide Behind the ‘Platform Defense’

ובעלי הפלטפורמות יכולים פשוט לטעון שכך העולם מתנהל היום. מה שמפחיד הוא שאולי הם צודקים.

צינור ישיר למספיק מידע?

לאורה קלי כותבת על ה-"knowledge panel" שלעתים קרובות מופיע כאשר עורכים חיפוש בגוגל. אם לפני 20 שנים חיפוש בגוגל העלה דף עם קישורים לדפים שהזכירו את המילים שעליהן ערכנו את החיפוש שלנו, היום התוצאות שונות מאד. כבר ב-2012 גוגל השיקה את ה-knowledge panel שבאופן אלגוריתמי (יש מי שיטען שבאופן קסמי) מביא לנו מידע ממוקד על הדבר שאנחנו כנראה חיפשנו. מתברר שעבור רוב הגולשים אפשר להסתפק במידע הזה:
That box is what Google calls a “knowledge panel,” a collection of definitive-seeming information (dates, names, biographical details, net worths) that appears when you Google someone or something famous. Seven years after their introduction, in 2012, knowledge panels are essential internet infrastructure: 62 percent of mobile searches in June 2019 were no-click, according to the research firm Jumpshot, meaning that many people are in the habit of searching; looking at the knowledge panel, related featured snippets, or top links; and then exiting the search. A 2019 survey conducted by the search marketing agency Path Interactive found that people ages 13 to 21 were twice as likely as respondents over 50 to consider their search complete once they’d viewed a knowledge panel.
יש מקרים שבהם המידע הזה באמת מספיק. אולי אנחנו בסך הכל רוצים לדעת אם האדם שעליו חשבנו באמת כתב ספר מסויים. במקרה הזה, סביר להניח שנקבל את התשובה בלי הצורך להקליק לתוך דפים של תוצאות. אבל יש הבדל גדול בין להיות "דרך אל המקור" לבין להיות "המקור" עצמו, ועבור משתמשים רבים כבר קשה להבחין בין השניים:

Google, like other tech companies, is struggling to draw lines between existing as a platform and being a publisher with a viewpoint. But many searchers now trust Google as a source, not just as a pathway to sources.

The Google Feature Magnifying Disinformation

הכתבה של קלי דנה בבעייתיות במקרים הלא כל כך מעטים שבהם המידע ב-knowledge panel מוטעה. אבל נדמה לי שמה שבאמת בעייתי היא הנטייה להסתפק בחלקיקי מידע.

המשמעות של ציבורי (ושל פרטי) משתנה

כבר לא ברור מהי הזכות לפרטיות, אם אי-פעם זה באמת היה ברור. טיילור לורנז כותבת על ילדים שמגלים שעל אף העובדה שמעולם לא היו להם חשבונות ברשתות חברתיות הרבה מידע עליהם נמצא ברשת. לרוב זה מפני שההורים העלו צילומים וידיעות. לכמה זה מפריע, ולאחרים זה אפילו מחמיא. ואולי להורים יש הזכות להעלות מידע גם אם הילדים אינם מרוצים מזה:
Recently a parenting blogger wrote in a Washington Post essay that despite her 14-year-old daughter’s horror at discovering that her mother had shared years of highly personal stories and information about her online, she simply could not stop posting on her blog and social media. The writer claimed that promising her daughter that she would stop posting about her publicly on the internet “would mean shutting down a vital part of myself, which isn’t necessarily good for me or her.”

When Kids Realize Their Whole Life Is Already Online

המשמעות של ציבורי ושל פומבי נמצאת בתנודה. בכפר קטן ידעו עלינו הכל גם אם לא פורסם בעיתון. העיר הגדולה איפשרה אנונימיות, וזה לא תמיד היה דבר רצוי או מבורך. מי שחושב שיש תשובות חותכות למתח בין הפרטי והציבורי עשוי לגלות בעוד כמה שנים שהמטוטלת זזה שוב.

אולי קל יותר פשוט להגיד שזה קסם

סידני פוסל כותב על כיצד "הקופסה השחורה" של האלגוריתמים יוצר מצב שבו יוצרי אתגוריתם זה או אחר יכול להכחיש אחריות להטיות למיניהן שמתגלות. פוסל מביא דוגמה מאמזון שמסוגלת לסרב גישה למשלוח תוך יום לכתובות מסויימות, ולתרץ את זה לפי מרחק ממחסן, כאשר בעצם מדובר בהעדר רצון להכנס לשכונות עוני. למי שיטען שיש כאן הטייה גזעית אפשר להשיב שהאלגוריתם באמת עיוור צבעים:
Algorithms interpret potentially millions of data points, and the exact path from input to conclusion can be difficult to make plain. But the effects are clear. This is a very powerful asymmetry: Anyone can notice a change in search results, but it’s extremely difficult to prove what caused it. That gives algorithm designers immense deniability.

Algorithms Are People

להבדיל מהקופסה השחורה במטוס שמציאתו חושף את מה שבאמת אירע, הקופסה השחורה שבאלגוריתם מהווה דרך להגיד שזה "מעבר לבינה שלנו".