כאשר הצבע איננו סתם צבע

שרה לואיס היא מרצה בהיסטוריה של האמנויות בהרווארד. בניו יורק טיימס היא סוקרת חלק מההיסטוריה של הצילום – כיצד ה-לובן (whiteness) נעשה להנחת יסוד בפיתוח צילומים. לואיס כותבת שתחום המחקר שלה בוחן כיצד בדמוקרטיה הזכות להיות מוכר קשורה להשפעה של התמונה, הדמות, וכיצד היא נתפסת במרחב הציבורי. למרבה הצער היא מוצאת שהנחות היסוד היסטוריות בנוגע להתאמה של צבע בצילום עוד מלוות אותנו:
Photography is not just a system of calibrating light, but a technology of subjective decisions. Light skin became the chemical baseline for film technology, fulfilling the needs of its target dominant market. For example, developing color-film technology initially required what was called a Shirley card. When you sent off your film to get developed, lab technicians would use the image of a white woman with brown hair named Shirley as the measuring stick against which they calibrated the colors. Quality control meant ensuring that Shirley’s face looked good. It has translated into the color-balancing of digital technology. In the mid-1990s, Kodak created a multiracial Shirley Card with three women, one black, one white, and one Asian, and later included a Latina model, in an attempt intended to help camera operators calibrate skin tones. These were not adopted by everyone since they coincided with the rise of digital photography. The result was film emulsion technology that still carried over the social bias of earlier photographic conventions.

The Racial Bias Built Into Photography

אולי בעיקר מפני שמדובר בהנחות יסוד סמויות השפעתן עלינו עדיין חזקה.

חשבנו שהתמונה שהמצלמה מצלמת היא של מה שהיה לפנינו?

אנחנו כבר יודעים, מזמן, שצילום איננו השתקפות של אמת. הרבה לפני Photoshop אפשר היה "לשקר" באמצעות הכלי. אבל אלקסיס מדריגל ב-The Atlantic מסביר לנו עד כמה המצלמות אשר בטלפונים שלנו פועלות אחרת. במקום "לראות" את מה שאנחנו רואים, במידה לא קטנה הן "רואות" את מה שאנחנו רוצים לראות:
What’s changed is this: The cameras know too much. All cameras capture information about the world—in the past, it was recorded by chemicals interacting with photons, and by definition, a photograph was one exposure, short or long, of a sensor to light. Now, under the hood, phone cameras pull information from multiple image inputs into one picture output, as well as drawing on neural networks trained to understand the scenes they’re being pointed at. Using this other information as well as an individual exposure, the final image is synthesized by a computer, ever more automatically and invisibly.
במילים אחרות, המחשב אשר במצלמה "מבין" את מה שלפניו ומתאים את התמונה שהיא מכינה לערכים של יופי שאליהם סיגלנו אותו. זאת ועוד: מתרחשות פעולות סטטיסטיות שמאפשרות לקבל את הצילום האולטימטיבי:

.Google’s camera is not capturing what is, but what, statistically, is likely

אבל בעולם שבו הסטטיסטיקה והקורלציה ממילא שולטים, אולי כל זה היה צפוי.

No, You Don’t Really Look Like That