довірливий ai 7 20
 ШІ-чат-боти стають все потужнішими, але як дізнатися, чи вони працюють у ваших інтересах? 

Якщо ви запитуєте Alexa, систему штучного інтелекту голосового помічника Amazon, чи є Amazon монополією, вона відповідає так: кажучи, що не знає. Щоб це зробити, не потрібно багато розкритикувати інших технологічних гігантів, але мовчить про злочини своєї власної корпоративної материнської компанії.

Коли Alexa відповідає таким чином, очевидно, що вона ставить інтереси свого розробника вище ваших. Однак зазвичай не так очевидно, кому служить система ШІ. Щоб уникнути експлуатації цих систем, людям потрібно буде навчитися скептично ставитися до ШІ. Це означає навмисне конструювання вхідних даних, які ви надаєте, і критичне осмислення результатів.

Новіші покоління моделей штучного інтелекту з їх більш складними та менш запам’ятованими реакціями ускладнюють визначення того, хто виграє від того, що говорить. Маніпуляції інтернет-компаніями тим, що ви бачите, щоб служити власним інтересам, не є чимось новим. Результати пошуку Google і ваша стрічка на Facebook заповнений платними записами. Facebook, TikTok а інші маніпулюють вашими стрічками, щоб максимізувати час, який ви проводите на платформі, що означає більше переглядів реклами, а не ваш добробут.

Те, що відрізняє системи ШІ від цих інших інтернет-сервісів, полягає в тому, наскільки вони інтерактивні, і те, як ці взаємодії все більше ставатимуть схожими на відносини. Щоб уявити штучний інтелект, який плануватиме для вас подорожі, вести переговори від вашого імені або виступати в ролі терапевтів і лайф-коучів, не потрібно багато екстраполяції з сучасних технологій.


Innersele підписатися графіка


Ймовірно, вони будуть з вами 24/7, знатимуть вас близько та зможуть передбачити ваші потреби. Цей вид розмовного інтерфейсу до величезної мережі послуг і ресурсів в Інтернеті знаходиться в межах можливостей існуючих генеративних ШІ, таких як ChatGPT. Вони на шляху до того, щоб стати персоналізовані цифрові помічники.

Як експерт з безпеки та вчений даних, ми вважаємо, що люди, які починають покладатися на ці штучні інтелекти, повинні будуть повністю довіряти їм, щоб орієнтуватися в повсякденному житті. Це означає, що їм потрібно буде переконатися, що штучний інтелект таємно не працює на когось іншого. В Інтернеті пристрої та служби, які, здається, працюють на вас, уже таємно працюють проти вас. Smart TV шпигувати за вами. Програми для телефону збирати та продавати ваші дані. Багато програм і веб-сайтів маніпулювати вами через темні шаблони, елементи дизайну, які навмисно вводити в оману, примушувати або обманювати відвідувачів веб-сайту, Це наглядовий капіталізм, і штучний інтелект стає його частиною. ШІ відіграє певну роль у капіталізмі спостереження, який зводиться до шпигування за вами, щоб заробити на вас гроші.

В темно

Цілком можливо, з ШІ все може бути набагато гірше. Щоб цей цифровий помічник зі штучним інтелектом був справді корисним, він повинен дійсно вас знати. Тебе знає краще, ніж телефон. Вас знає краще, ніж пошук Google. Можливо, краще, ніж ваші близькі друзі, інтимні партнери та терапевт.

У вас немає причин довіряти сучасним провідним генеративним інструментам ШІ. Залиште осторонь галюцинацій, вигадані «факти», які створюють GPT та інші великі мовні моделі. Ми очікуємо, що вони будуть значною мірою очищені в міру вдосконалення технології протягом наступних кількох років.

Але ви не знаєте, як налаштовані штучні інтелекти: як їх навчали, яку інформацію їм надали та яких інструкцій їм було наказано виконувати. Наприклад, дослідники розкрив таємні правила які керують поведінкою чат-бота Microsoft Bing. Вони в основному доброякісні, але можуть змінитися в будь-який час.

Робити гроші

Багато з цих штучних інтелектів створюються та навчаються за величезні кошти деякими з найбільших технологічних монополій. Їх пропонують людям використовувати безкоштовно або за дуже низькою ціною. Цим компаніям потрібно буде якось їх монетизувати. І, як і з рештою Інтернету, це певним чином включатиме стеження та маніпуляції.

Уявіть, що ви попросите свого чат-бота спланувати вашу наступну відпустку. Він вибрав конкретну авіакомпанію, мережу готелів чи ресторан тому, що він був найкращим для вас, чи тому, що його виробник отримав відкат від бізнесу? Як і у випадку з платними результатами пошуку Google, рекламою в стрічці новин у Facebook і платними місцями розміщення запитів на Amazon, ці платні впливи з часом, ймовірно, стануть більш прихованими.

Якщо ви запитуєте у свого чат-бота політичну інформацію, чи результати спотворені політикою корпорації, яка володіє чат-ботом? Або кандидат, який заплатив за це найбільше грошей? Чи навіть погляди демографічних груп людей, чиї дані використовувалися для навчання моделі? Ваш агент ШІ таємно є подвійним агентом? Зараз неможливо дізнатися.

Заслуговує довіри за законом

Ми віримо, що люди повинні очікувати від технологій більшого, а технологічні компанії та штучний інтелект можуть стати більш надійними. Запропонував Європейський Союз Закон про ШІ вживає деяких важливих кроків, вимагаючи прозорості щодо даних, які використовуються для навчання моделей штучного інтелекту, пом’якшення потенційних упереджень, розкриття передбачуваних ризиків і звітування про галузеві стандартні тести. Європейський Союз просувається вперед із регулюванням ШІ.

Більшість існуючих ШІ не виконувати з цим новим європейським мандатом, і, незважаючи на нещодавнє підштовхування від лідера більшості в Сенаті Чака Шумера, США значно відстають від такого регулювання.

ШІ майбутнього має бути надійним. До тих пір, поки уряд не забезпечить надійний захист споживачів для продуктів штучного інтелекту, люди будуть самі здогадуватися про потенційні ризики та упередження штучного інтелекту та пом’якшувати його найгірший вплив на досвід роботи з ними.

Тож коли ви отримуєте рекомендації щодо подорожі чи політичну інформацію від інструменту штучного інтелекту, підходьте до цього з таким же скептичним поглядом, як і до реклами на білборді чи волонтера кампанії. Незважаючи на всю свою технологічну майстерність, інструмент штучного інтелекту може бути майже таким самим.Бесіда

про автора

Брюс Шнайер, ад’юнкт кафедри публічної політики, Гарвардська школа Кеннеді та Натан Сандерс, філія, Berkman Klein Center for Internet & Society, Гарвардський університет

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.