небезпека ai 7 11
Навряд чи штучний інтелект поневолить людство, але він може взяти під контроль багато аспектів нашого життя. elenabs/iStock через Getty Images

Зростання ChatGPT і подібних систем штучного інтелекту супроводжувалося різким зростанням збільшення тривоги щодо ШІ. Протягом останніх кількох місяців керівники та дослідники безпеки штучного інтелекту пропонували прогнози, які називаються «P (загибель)”, про ймовірність того, що ШІ призведе до масштабної катастрофи.

Пік занепокоєння досяг у травні 2023 року, коли некомерційна дослідницька та адвокаційна організація Center for AI Safety опублікувала висловлювання з одного речення: «Зменшення ризику вимирання через ШІ має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна». Заява була підписана багатьма ключовими гравцями в галузі, включаючи лідерів OpenAI, Google і Anthropic, а також двох з так званих «хрещених батьків» ШІ: Джеффрі Хінтон та Йошуа Бенджіо.

Ви можете запитати, як такі екзистенціальні страхи повинні грати в життя. Одним із відомих сценаріїв є «максимайзер скріпок» уявний експеримент, сформульований оксфордським філософом Нік Бостром. Ідея полягає в тому, що система штучного інтелекту, якій поставлено завдання виробляти якомога більше канцелярських скріпок, може докладати надзвичайних зусиль, щоб знайти сировину, наприклад, руйнувати заводи та спричиняти автомобільні аварії.

A менш ресурсомістка варіація має штучний інтелект, якому доручено забезпечити бронювання столика в популярному ресторані, вимикаючи стільникові мережі та світлофори, щоб інші відвідувачі не могли отримати столик.


Innersele підписатися графіка


Канцелярське приладдя чи вечеря, основна ідея та сама: штучний інтелект швидко стає інопланетним інтелектом, який добре досягає цілей, але небезпечний, оскільки він не обов’язково відповідатиме моральним цінностям його творців. І, в своїй крайній версії, цей аргумент трансформується в явне занепокоєння щодо штучного інтелекту поневолення або знищення людського роду.

Штучний інтелект, який створює скріпки, буйствує, є одним із варіантів сценарію апокаліпсису ШІ.

 

Фактична шкода

В останні кілька років ми з колегами в Бостонський центр прикладної етики UMass вивчали вплив взаємодії з ШІ на розуміння людьми себе, і я вважаю, що ці катастрофічні тривоги надмірно роздутий і неправильно спрямований.

Так, здатність штучного інтелекту створювати переконливі глибоко підроблені відео та аудіо лякає, і нею можуть зловживати люди з поганими намірами. Власне, це вже відбувається: російські оперативники, ймовірно, намагалися присоромити критика Кремля Білл Браудер заманивши його в розмову з аватаром екс-президента України Петра Порошенка. Кіберзлочинці використовують штучний інтелект для клонування голосу для різноманітних злочинів – від високотехнологічні крадіжки до звичайні шахраї.

Системи прийняття рішень ШІ, які запропонувати схвалення кредиту та рекомендації щодо найму несуть ризик упередженості алгоритмів, оскільки навчальні дані та моделі рішень, на яких вони працюють, відображають давні соціальні упередження.

Це великі проблеми, і вони потребують уваги політиків. Але вони існують уже деякий час і навряд чи є катастрофічними.

Не в одній лізі

У заяві Центру безпеки штучного інтелекту штучний інтелект об’єднується з пандеміями та ядерною зброєю як основним ризиком для цивілізації. Є проблеми з таким порівнянням. COVID-19 призвів до майже 7 мільйонів смертей у всьому світі, принесений на a масштабна та триваюча криза психічного здоров’я і створив економічні проблеми, включно з хронічним дефіцитом ланцюга постачання та нестримною інфляцією.

Ймовірно, ядерна зброя вбила більше, ніж людей 200,000 у Хіросімі та Нагасакі в 1945 році, забрали набагато більше життів від раку в наступні роки, породили десятиліття глибокої тривоги під час холодної війни та поставили світ на межу знищення під час кубинської ракетної кризи в 1962 році. Вони також змінив розрахунки національних лідерів про те, як реагувати на міжнародну агресію, як зараз розігрується з вторгненням Росії в Україну.

ШІ просто далеко не в змозі завдати такої шкоди. Сценарій канцелярської скріпки та інші подібні - це наукова фантастика. Існуючі програми штучного інтелекту виконують конкретні завдання, а не роблять широкі судження. Технологія є далеко не в змозі прийняти рішення, а потім спланувати цілі та підпорядковані цілі, необхідні для того, щоб закрити рух, щоб отримати місце в ресторані, або підірвати автомобільний завод, щоб задовольнити своє бажання канцелярських скріпок.

Технології не тільки бракує складної здатності багаторівневого судження, яка використовується в цих сценаріях, вона також не має автономного доступу до достатніх частин нашої критичної інфраструктури, щоб почати завдавати такої шкоди.

Що означає бути людиною

Насправді існує небезпека існування, притаманна використанню ШІ, але цей ризик є екзистенціальним у філософському, а не апокаліптичному сенсі. ШІ в його нинішньому вигляді може змінити те, як люди бачать себе. Це може погіршити здібності та досвід, які люди вважають необхідними для того, щоб бути людьми.

Наприклад, люди — істоти, які виносять судження. Люди раціонально зважують дрібниці і щодня роблять дзвінки на роботі та у відпочинок про те, кого найняти, кому взяти кредит, що дивитися тощо. Але таких суджень стає все більше автоматизовано та передано алгоритмам. Коли так станеться, кінця світу не буде. Але люди поступово втратять здатність самостійно приймати ці судження. Чим менше їх виготовляють люди, тим гірше вони, ймовірно, стануть у їх створенні.

Або розглянемо роль випадку в житті людей. Люди цінують випадкові зустрічі: випадково натрапляючи на місце, людину чи діяльність, захоплюючись цим і ретроспективно оцінюючи роль випадковості в цих значущих знахідках. Але роль механізмів алгоритмічних рекомендацій полягає в тому, щоб зменшити цей вид випадковості і замінити його плануванням і прогнозуванням.

Нарешті, розглянемо можливості ChatGPT для написання. Технологія перебуває в процесі усунення ролі письмових завдань у вищій освіті. Якщо це станеться, викладачі втратять ключовий інструмент для навчання студентів як мислити критично.

Не мертвий, а зменшений

Отже, ні, ШІ не підірве світ. Але дедалі більш некритичне сприйняття цього у різноманітних вузьких контекстах означає поступову ерозію деяких найважливіших людських навичок. Алгоритми вже підривають здатність людей робити судження, насолоджуватися випадковими зустрічами та відточувати критичне мислення.

Людство переживе такі втрати. Але наш спосіб існування збідніє в процесі. Фантастичні тривоги навколо майбутнього катаклізму штучного інтелекту, сингулярності, Скайнету чи як би там не було, приховують ці більш непомітні витрати. Згадайте відомі заключні рядки Т. С. Еліота «Порожні чоловіки”: “Це кінець світу, – писав він, – не з тріском, а зі скиглінням”.Бесіда

про автора

Нір Ейсіковіц, професор філософії та директор Центру прикладної етики, UMass Бостон

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.