כך או כך, אנחנו שבויים בידי האלגוריתם

קרן האו כותבת על הנסיונות של מהנדסים ב-YouTube לשכלל את אלגוריתם ההמלצות של האתר. המצב מוכר – ליד הסרטון שבו אנחנו צופים מופיעה רשימה של הצעות לצפייה נוספת (וגם בסיום הצפייה באיזור הסרטון עצמו). ל-YouTube אינטרס שנמשיך לצפות בעוד ועוד סרטונים, כך שאפשר להגיש לנו עוד ועוד פרסומות. חוקרים רבים טוענים שלמערכת ההמלצות נטייה להקצין ולהגיש לנו סרטנים שהם שנויים במחלוקת. רבים קוראים ל-YouTube לטפל בבעיה. וכך כנראה מנסים לעשות באמצעות מספר ניסויים. האו כותבת על הנסיונות האלו, ועל מחקר פנימי שנערך ב-YouTube והתגובות אליו:
Several experts who reviewed the paper said the changes could have perverse effects. “In our research, we have found that YouTube’s algorithms created an isolated far-right community, pushed users toward videos of children, and promoted misinformation,” Jonas Kaiser, an affiliate at the Berkman Klein Center for Internet & Society, said. “On the fringes, this change might […] foster the formation of more isolated communities than we have already seen.” Jonathan Albright, the director of the digital forensics initiative at the Tow Center for Digital Journalism, said that while “reducing position bias is a good start to slow the low-quality content feedback loop,” in theory the change could also further favor extreme content.

YouTube is experimenting with ways to make its algorithm even more addictive

צריכים להודות שיש כאן בעייתיות – יכול להיות שהורדה באחוז הסרטונים הבעייתיים שיוגשו לצופים יוביל להגשת יותר סרטונים שמשתמשים ירצו לראות. ויותר קליקים אומר יותר כסף. אישית, אינני יודע אם יש פתרון אופטימלי.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *