4 способи, як ваші пошукові запити в Google та соціальні медіа впливають на ваші життєві можливості
Shutterstock.

Незалежно від того, усвідомлюєте ви це чи ні, великі дані можуть вплинути на вас і на ваше життя. Дані, які ми створюємо під час використання соціальних медіа, перегляд Інтернету і носіння фітнес -трекерів збирається, класифікується та використовується підприємствами та стан для створення наших профілів. Потім ці профілі використовуються для націлювання реклами продуктів і послуг на тих, хто, швидше за все, їх придбає, або для інформування урядових рішень.

Великі дані дозволяють державам і компаніям отримувати доступ, поєднувати та аналізувати нашу інформацію та створювати відкриття - але неповний і потенційно неточні - профілі нашого життя. Вони роблять це, виявляючи кореляції та закономірності в даних про нас та людей із подібними до нас профілями, щоб робити прогнози щодо того, що ми можемо зробити.

Але те, що аналіз великих даних ґрунтується на алгоритмах та статистиці, не означає, що вони є точний, нейтральний або за своєю суттю об’єктивний. І хоча великі дані можуть дати уявлення про групову поведінку, це не обов’язково є надійним способом визначення індивідуальної поведінки. Насправді ці методи можуть відкрити двері дискримінації та загрожують правам людей - вони навіть можуть працювати проти вас. Ось чотири приклади, коли аналіз великих даних може призвести до несправедливості.

1. Розрахунок кредитних балів

Великі дані можна використовувати для прийняття рішень право на кредит, що впливає на те, чи надано вам іпотеку, або на вашу висоту страхування автомобіля премії повинні бути. Ці рішення можуть бути надані Вами повідомлення соціальних медіа та дані з інших програм, які беруть участь у визначенні вашого рівня ризику або надійності.

Але такі дані, як освіта чи місце проживання, можуть бути недоречними чи достовірними для таких оцінок. Такі дані можуть виступати в ролі проксі чи расового чи соціально -економічного статусу, і використання їх для прийняття рішень щодо кредитного ризику може призвести до дискримінації.


Innersele підписатися графіка


2. Пошук роботи

Великі дані можна використовувати для визначення хто бачить оголошення про роботу або потрапляє у шорт -лист для співбесіди. Оголошення про роботу можуть бути націлені на певні вікові групи, наприклад, від 25 до 36 років, що виключає молодших та старших працівників навіть бачити певні оголошення про роботу та становить ризик дискримінації за віком.

Автоматизація також використовується для підвищення ефективності фільтрації, сортування та ранжування кандидатів. Але цей процес перевірки може виключити людей на основі таких показників, як відстань від них на роботу. Роботодавці можуть припустити, що ті, хто довше їздить на роботу, мають меншу ймовірність залишатися на роботі довгостроково, але це насправді може дискримінувати людей, які живуть далі від центру міста через розташування доступного житла.

3. Рішення про умовно -дострокове звільнення та заставу

У США та Великій Британії моделі оцінки ризику великих даних використовуються, щоб допомогти чиновникам вирішити, чи надаватимуться людям умовно -дострокове звільнення або заставаабо згадується реабілітаційні програми. Вони також можуть бути використані для оцінки того, наскільки злочинець представляє суспільству ризик, що є одним із факторів, які суддя може враховувати при вирішенні тривалості покарання.

Незрозуміло, які саме дані використовуються для здійснення цих оцінок, але як рухатись далі цифрова поліція Зростає темп, імовірно, що ці програми включатимуть інформацію з відкритим кодом, таку як соціальна медіа діяльність - якщо вони цього ще не зробили.

Ці оцінки можуть стосуватися не лише профілю людини, але й порівняння її з іншими. Деякі поліцейські сили мають історично надмірно контрольований певних громад меншин, що призводить до непропорційно великої кількості зареєстрованих кримінальних інцидентів. Якщо ці дані будуть подані в алгоритм, це спотворить моделі оцінки ризику і призведе до дискримінації, яка безпосередньо впливає право особи на свободу.

4. Перевірка заяв на візу

Минулого року Агентство з питань імміграції та митного контролю США (ICE) оголосило, що хоче ввести автоматизовану "екстремальна перевірка віз”Програма. Він автоматично і безперервно скануватиме акаунти в соціальних мережах, щоб оцінити, чи зможуть заявники внести "позитивний внесок" у Сполучені Штати та чи можуть виникнути проблеми національної безпеки.

Окрім ризиків для свободи думки, думки, вираження поглядів та асоціацій, існували й значні ризики, які ця програма може дискримінувати щодо людей певних національностей чи релігій. Коментатори охарактеризував це як "заборону мусульман за алгоритмом".

Програма був нещодавно вилучений, як повідомляється, на підставі того, що "не існувало програмного забезпечення" з коробки ", яке могло б забезпечити якість моніторингу, якого потребує агентство". Але включення таких цілей у закупівельну документацію може створити погані стимули для технологічної індустрії розробляти програми, які є дискримінаційними за задумом.

БесідаНемає сумніву, що аналіз великих даних працює таким чином, що може вплинути на можливості людей у ​​житті. Але відсутність прозорості про те, як збираються, використовуються та передаються великі дані, людям важко дізнатися, яка інформація використовується, як і коли. Аналітика великих даних просто надто складна, щоб люди могли захистити свої дані від неналежного використання. Натомість, держави та компанії повинні приймати - і дотримуватись - нормативних актів, щоб гарантувати, що їх використання великих даних не призводить до дискримінації.

Про авторів

Лорна МакГрегор, директор Центру з прав людини, інформаційний директор та співдиректор, ESRC Human Rights, Big Data and Technology Large Grant, Університет Ессекса; Дараг Мюррей, викладач міжнародного права прав людини в юридичній школі Ессекса, Університет Ессексата Вівіан Нг, старший дослідник з прав людини, Університет Ессекса

Ця стаття була спочатку опублікована на Бесіда. Читати оригінал статті.

Книги цих

про автора

at

перерву

Дякуємо за відвідування InnerSelf.com, де є 20,000 + статті, що змінюють життя, пропагуючи «Нові погляди та нові можливості». Усі статті перекладено на 30+ мов. Підписуватися для журналу InnerSelf, що виходить щотижня, та щоденного натхнення Марі Т. Рассел. Журнал InnerSelf видається з 1985 року.