חשבנו שהתמונה שהמצלמה מצלמת היא של מה שהיה לפנינו?

אנחנו כבר יודעים, מזמן, שצילום איננו השתקפות של אמת. הרבה לפני Photoshop אפשר היה "לשקר" באמצעות הכלי. אבל אלקסיס מדריגל ב-The Atlantic מסביר לנו עד כמה המצלמות אשר בטלפונים שלנו פועלות אחרת. במקום "לראות" את מה שאנחנו רואים, במידה לא קטנה הן "רואות" את מה שאנחנו רוצים לראות:
What’s changed is this: The cameras know too much. All cameras capture information about the world—in the past, it was recorded by chemicals interacting with photons, and by definition, a photograph was one exposure, short or long, of a sensor to light. Now, under the hood, phone cameras pull information from multiple image inputs into one picture output, as well as drawing on neural networks trained to understand the scenes they’re being pointed at. Using this other information as well as an individual exposure, the final image is synthesized by a computer, ever more automatically and invisibly.
במילים אחרות, המחשב אשר במצלמה "מבין" את מה שלפניו ומתאים את התמונה שהיא מכינה לערכים של יופי שאליהם סיגלנו אותו. זאת ועוד: מתרחשות פעולות סטטיסטיות שמאפשרות לקבל את הצילום האולטימטיבי:

.Google’s camera is not capturing what is, but what, statistically, is likely

אבל בעולם שבו הסטטיסטיקה והקורלציה ממילא שולטים, אולי כל זה היה צפוי.

No, You Don’t Really Look Like That