Алгоритми YouTube можуть радикалізувати людей - але справжня проблема полягає в тому, що ми не уявляємо, як вони працюють Містер спокусник / Shutterstock

YouTube створює екстремістів? A Недавнє дослідження викликав суперечки серед вчених, стверджуючи, що алгоритми, що забезпечують роботу сайту, не допомагають радикалізувати людей, рекомендуючи все більш екстремальні відео, як було запропоновано в останні роки.

Документ, поданий до журналу з відкритим доступом «Перший понеділок», але офіційно ще не рецензований, аналізував відеорекомендації, отримані різними типами каналів. Він стверджував, що алгоритм YouTube надає перевагу основним медіаканалам перед незалежним контентом, роблячи висновок, що радикалізація має більше спільного з людьми, які створюють шкідливий контент, ніж алгоритм сайту.

Фахівці в цій галузі були швидкими відповідаючи на дослідження, з деякою критикою методи роботи та інші, хто аргументував алгоритм, був одним із них кілька важливих факторів і лише ця наука про дані не дасть нам відповіді.

Проблема цієї дискусії полягає в тому, що ми не можемо відповісти на питання, яку роль відіграє алгоритм YouTube у радикалізації людей, оскільки ми не розуміємо, як це працює. І це лише симптом набагато ширшої проблеми. Ці алгоритми відіграють дедалі більшу роль у нашому повсякденному житті, але не мають жодної прозорості.

Важко стверджувати, що YouTube не грає ролі в радикалізації. На це вперше звернув увагу соціолог з технологій Зейнеп Туфекчі, яка проілюструвала, як рекомендовані відео поступово спонукають користувачів до більш екстремального змісту. За словами Туфекчі, відео про пробіжку ведуть до відео про біг ультрамарафонів, про вакцини - до теорій змови, а про політику - до "заперечення Голокосту та іншого тривожного контенту".


Innersele підписатися графіка


Про це також писали детально екс-співробітником YouTube Гійомом Шасло, який працював над алгоритмом рекомендацій сайту. З моменту виходу з компанії Шасло продовжував намагатися зробити ці рекомендації більш прозорим. Він каже, що рекомендації YouTube мають тенденцію до теорії змови та фактично неточні відео, які тим не менше змушують людей проводити більше часу на сайті.

Насправді, максимізація часу перегляду це суть алгоритмів YouTube, і це спонукає творців відео боротися за увагу будь-яким можливим способом. Сама компанія відсутність прозорості про те, як саме це працює, робить практично неможливою боротьбу з радикалізацією на сайті. Зрештою, без прозорості важко знати, що можна змінити, щоб покращити ситуацію.

Алгоритми YouTube можуть радикалізувати людей - але справжня проблема полягає в тому, що ми не уявляємо, як вони працюють Як працює алгоритм YouTube, залишається загадкою. Хто такий Денні / Шуттерсток

Але YouTube не є незвичним у цьому відношенні. Відсутність прозорості щодо того, як працюють алгоритми, зазвичай трапляється, коли вони використовуються у великих системах, будь то приватні компанії чи державні органи. Алгоритми машинного навчання тепер не тільки вирішують, яке відео вам показувати далі розміщувати дітей у школах, вирішувати тюремні вироки, визначити кредитні бали та страхові тарифи, а також доля Росії іммігранти, кандидати на роботу та абітурієнти. І зазвичай ми не розуміємо, як ці системи приймають рішення.

Дослідники знайшли творчі способи продемонструвати вплив цих алгоритмів на суспільство, чи то шляхом вивчення підйом реакційного права або поширення теорій змови на YouTube, або показавши, як пошукові системи відображають расистські упередження людей, які їх створюють.

Системи машинного навчання, як правило, великі, складні та непрозорі. Доречно, їх часто описують як чорні коробки, де інформація надходить, а інформація чи дії виходять, але ніхто не може побачити, що відбувається між ними. Це означає, що, оскільки ми точно не знаємо, як працюють такі алгоритми, як система рекомендацій YouTube, спроба з’ясувати, як працює сайт, могла б бути спробою зрозуміти машину, не відкриваючи капот.

У свою чергу, це означає, що спроба писати закони, які регулюють, що слід чи не слід робити алгоритмам, стає сліпим процесом або спробами та помилками. Це те, що відбувається з YouTube і з багатьма іншими алгоритмами машинного навчання. Ми намагаємось взяти участь у їхніх результатах, не маючи реального розуміння того, як вони насправді працюють. Нам потрібно відкрити ці запатентовані технології або, принаймні, зробити їх достатньо прозорими, щоб ми могли їх регулювати.

Пояснення та тестування

Одним із способів зробити це було б надання алгоритмів контрфактичні пояснення разом зі своїми рішеннями. Це означає вироблення мінімальних умов, необхідних алгоритму для прийняття іншого рішення, без опису його повної логіки. Наприклад, алгоритм прийняття рішень щодо банківських позик може дати результат, який говорить, що «якщо вам було більше 18 років і у вас не було попередньої заборгованості, ви б прийняли вашу банківську позику». Але це може бути важко зробити з YouTube та іншими сайтами, які використовують алгоритми рекомендацій, оскільки теоретично будь-яке відео на платформі може бути рекомендовано в будь-який момент.

Ще одним потужним інструментом є тестування та аудит алгоритмів, що було особливо корисно при діагностиці упереджених алгоритмів. Нещодавно професійна компанія, що займається скринінгом резюме, виявила, що її алгоритм відповідає вимогам пріоритетність двох факторів як найкращі прогнози результативності роботи: чи звали кандидата Джаред, і чи грали вони в середній школі в лакрос. Це те, що відбувається, коли машина залишається без нагляду.

У цьому випадку алгоритм скринінгу резюме помітив, що білі чоловіки мають більший шанс бути найнятим, і знайшов відповідні характеристики проксі (наприклад, ім'я Джаред або гра в лакрос), які є у найнятих кандидатів. На YouTube аудит алгоритмів може допомогти зрозуміти, яким типам відео надається пріоритет для рекомендацій - і, можливо, допоможе врегулювати дискусію щодо того, сприяють рекомендації YouTube радикалізації чи ні.

Введення неправдивих пояснень або використання аудиту алгоритмів - це складний, дорогий процес. Але це важливо, бо альтернатива гірша. Якщо алгоритми не перевірятимуть і не регулюватимуть, ми можемо спостерігати поступове проникнення теоретиків змови та екстремістів до наших ЗМІ, а нашу увагу контролюватиме той, хто може виробляти найбільш вигідний контент.Бесіда

Про автора

Чіко К. Камарго, докторант з науки про дані, Оксфордський університет

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.