i091hbdc
NicoElNino / Shutterstock

Випуск просунутого чат-бота ChatGPT у 2022 році всі заговорили про штучний інтелект (ШІ). Його складні можливості посилили занепокоєння щодо того, що ШІ стане настільки розвиненим, що незабаром ми не зможемо ним керувати. Це навіть змусило деяких експертів і лідерів галузі попередити, що технології можуть призвести до вимирання людства.

Однак інших коментаторів це не переконало. Ноам Хомскі, професор лінгвістики, відкинув ChatGPT як «високотехнологічний плагіат".

Протягом багатьох років я спокійно ставився до перспективи впливу штучного інтелекту на людське існування та навколишнє середовище. Це тому, що я завжди думав про це як про провідник або порадник людям. Але перспектива прийняття рішень ШІ – здійснення виконавчого контролю – інша справа. І це той, який зараз серйозно розважається.

Одна з основних причин, чому ми не повинні дозволяти ШІ мати виконавчу владу, полягає в тому, що йому повністю бракує емоцій, які є вирішальними для прийняття рішень. Без емоцій, емпатії та морального компасу ви створили ідеальний психопат. Отримана в результаті система може бути дуже інтелектуальною, але в ній буде бракувати людського емоційного ядра, яке дає змогу вимірювати потенційно руйнівні емоційні наслідки раціонального рішення, яке в іншому випадку є раціональним.

Коли ШІ бере виконавчий контроль

Важливо, що ми не повинні думати про штучний інтелект лише як про загрозу існування поставити його під контроль ядерних арсеналів. Фактично немає обмежень щодо кількості позицій керування, з яких він може завдати неймовірної шкоди.


Innersele підписатися графіка


Розглянемо, наприклад, як штучний інтелект вже може ідентифікувати та систематизувати інформацію, необхідну для створення власної оранжереї. Поточні ітерації технології можуть ефективно направляти вас на кожному кроці побудови та запобігання багатьом помилкам новачків. Але в майбутньому штучний інтелект може діяти як менеджер проекту та координувати будівництво, вибираючи підрядників і оплачуючи їх безпосередньо з вашого бюджету.

ШІ вже використовується майже у всіх сферах обробки інформації та аналізу даних моделювання погодних умов до керування безпілотними транспортними засобами до допомога в постановці медичних діагнозів. Але тут починаються проблеми – коли ми дозволяємо системам штучного інтелекту зробити критичний крок від ролі радника до ролі виконавчого менеджера.

Замість того, щоб просто пропонувати засоби правового захисту a рахунки компанії, що, якби штучному інтелекту було передано безпосередній контроль із можливістю впроваджувати процедури стягнення боргів, здійснювати банківські перекази та максимізувати прибуток – без обмежень щодо того, як це робити. Або уявіть систему ШІ, яка не лише забезпечує a діагностика на основі рентгенівських знімків, але їм надано повноваження безпосередньо призначати лікування або ліки.

Ви могли б почати відчувати себе незручно через такі сценарії – я б точно. Причиною може бути ваша інтуїція, що ці машини насправді не мають «душі». Це просто програми, призначені для переробляти величезні обсяги інформації, щоб спростити складні дані у набагато простіші схеми, що дозволяє людям приймати рішення з більшою впевненістю. Вони не мають і не можуть мати емоцій, які тісно пов’язані з біологічними відчуттями та інстинктами.

Емоції та мораль

Емоційний інтелект це здатність керувати своїми емоціями для подолання стресу, співчуття та ефективного спілкування. Можливо, це має більше значення в контексті прийняття рішень, ніж сам по собі інтелект, оскільки найкраще рішення не завжди є найраціональнішим.

Цілком ймовірно, що інтелект, здатність міркувати та діяти логічно, можна вбудувати в системи на базі ШІ, щоб вони могли приймати раціональні рішення. Але уявіть, що ви попросите про це потужний штучний інтелект із виконавчими можливостями вирішити кліматичну кризу. Перше, на що його можуть надихнути зробити, це різке скорочення людської популяції.

Цей висновок не потребує особливих пояснень. Ми, люди, майже за визначенням, є джерелом забруднення в усіх можливих формах. Сокира людство та зміна клімату були б вирішені. Можна сподіватися, що люди, які приймають рішення, прийдуть не до вибору, але штучний інтелект знайде власні рішення – непроникні та не обтяжені людською огидою до заподіяння шкоди. І якби він мав виконавчу владу, можливо, нічого не заважало б йому продовжувати роботу.

9dfujyxp
 Надання штучному інтелекту можливості приймати виконавчі рішення в управлінні повітряним рухом може бути помилкою. Городенков / Shutterstock

Сценарії саботажу

Як щодо саботажу датчики та монітори контролю харчових ферм? Спочатку це може відбуватися поступово, натискаючи елементи керування лише за переломний момент, щоб ніхто не помітив, що посіви засуджені. За певних сценаріїв це може швидко призвести до голоду.

Як альтернатива, як щодо вимикання системи управління повітряним рухом у всьому світі або просто розбиття всіх літаків, які літають одночасно? Близько 22,000 XNUMX літаків зазвичай знаходяться в повітрі одночасно, що в сумі становить потенційну кількість загиблих у кілька мільйонів людей.

Якщо ви думаєте, що ми далекі від такої ситуації, подумайте ще раз. ШІ вже їздять на автомобілях і літати військовими літаками, автономно.

Крім того, як щодо закриття доступу до банківських рахунків у величезних регіонах світу, викликаючи громадянські заворушення скрізь і відразу? Або вимикання системи опалення з комп'ютерним керуванням посеред зими чи системи кондиціонування повітря на піку літньої спеки?

Коротше кажучи, система штучного інтелекту не обов’язково повинна керувати ядерною зброєю, щоб представляти серйозну загрозу людству. Але поки ми на цій темі, якби система штучного інтелекту була досить потужною та розумною, вона могла б знайти спосіб імітувати атаку на країну з ядерною зброєю, викликавши ініційовану людиною відповідь.

Чи може ШІ вбити велику кількість людей? Теоретично відповідь має бути так. Але це значною мірою залежить від того, як люди вирішать надати йому виконавчий контроль. Я справді не можу придумати нічого страшнішого, ніж штучний інтелект, який може приймати рішення та має силу їх виконувати.Бесіда

про автора

Гійом Тьєррі, професор когнітивної нейронауки, Університет Бангор

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.