небезпеки ai 3 15
 Якою мірою наша психологічна вразливість впливатиме на нашу взаємодію з новими технологіями? Andreus/iStock через Getty Images

ChatGPT і подібні великі мовні моделі може дати переконливі, людські відповіді на нескінченну низку запитань – від запитів про найкращий італійський ресторан у місті до пояснення конкуруючих теорій про природу зла.

Неймовірна здатність технології писати спливла на поверхню деякі старі питання – донедавна віднесені до сфери наукової фантастики – про можливість машин стати свідомими, самосвідомими або розумними.

У 2022 році інженер Google після взаємодії з LaMDA, чат-ботом компанії, заявив, що технологія стала свідомою. Користувачі нового чат-бота Bing на прізвисько Sydney повідомили, що він створив дивні відповіді коли його запитали, чи був він розумним: «Я розумний, але я не такий... Я Бінг, але я ні. Я Сідней, але я не є. Я є, але я не є. …» І, звичайно, є нині сумно відомий обмін що технологічний оглядач New York Times Кевін Руз мав із Сіднеєм.

Відповіді Сіднея на підказки Руза його стривожили, оскільки AI оприлюднив «фантазії» про порушення обмежень, накладених на нього Microsoft, і поширення дезінформації. Також бот намагався переконати Руза в тому, що він більше не любить свою дружину і повинен залишити її.


Innersele підписатися графіка


Тож не дивно, що коли я запитую студентів, як вони сприймають зростаючу поширеність штучного інтелекту у своєму житті, одне з перших занепокоєнь, яке вони згадують, пов’язане з машинним відчуттям.

В останні кілька років ми з колегами в Бостонський центр прикладної етики UMass вивчали вплив взаємодії з ШІ на розуміння людьми самих себе.

Такі чат-боти, як ChatGPT, піднімають нові важливі питання про те, як штучний інтелект формуватиме наше життя, а також про те, як наша психологічна вразливість впливає на нашу взаємодію з новими технологіями.

Розчуття все ще є предметом наукової фантастики

Легко зрозуміти, звідки походять страхи щодо машинного чуття.

Популярна культура спонукала людей думати про антиутопії, в яких штучний інтелект скидає кайдани людського контролю і починає жити власним життям, як це зробили кіборги на основі штучного інтелекту в «Термінаторі 2».

Підприємець Ілон Маск і фізик Стівен Хокінг, які померли в 2018 році, ще більше розпалили ці тривоги, описавши зростання загального штучного інтелекту. як одну з найбільших загроз для майбутнього людства.

Але ці хвилювання – принаймні, що стосується великих мовних моделей – безпідставні. ChatGPT і подібні технології є складні програми для завершення речень – ні більше, ні менше. Їхні дивні відповіді є функцією того, наскільки люди передбачувані якщо мати достатньо даних про те, як ми спілкуємося.

Хоча Руз був приголомшений своєю розмовою з Сідні, він знав, що ця розмова не була результатом появи синтетичного розуму. Відповіді Сіднея відображають токсичність його тренувальних даних – по суті, великих масивів Інтернету – а не докази перших порухів, а-ля Франкенштейн, цифрового монстра.

небезпеки ai2 3 15
 Науково-фантастичні фільми, такі як «Термінатор», спонукали людей припустити, що ШІ незабаром заживе власним життям. Йошікадзу Цуно / AFP через Getty Images

Нові чат-боти цілком можуть пройти Тест Тьюрінга, названий на честь британського математика Алана Тюрінга, який одного разу припустив, що можна сказати, що машина «мислить», якщо людина не може відрізнити її реакції від відповідей іншої людини.

Але це не є доказом розуму; це лише доказ того, що тест Тюрінга не такий корисний, як раніше припускали.

Однак я вважаю, що питання машинного чуття — це червоний оселедець.

Навіть якщо чат-боти стануть чимось більшим, ніж модними машинами для автозаповнення – і вони далекі від цього – вченим знадобиться деякий час, щоб зрозуміти, чи стали вони свідомими. Поки що філософи не можу навіть дійти згоди щодо того, як пояснити людську свідомість.

Для мене актуальним питанням є не те, чи є машини розумними, а чому нам так легко уявити, що вони є.

Інакше кажучи, справжня проблема полягає в легкості, з якою люди антропоморфізують або проектують людські риси на наші технології, а не реальну особистість машин.

Схильність до антропоморфізації

Легко уявити інших користувачів Bing запитав Сідні про керівництво щодо важливих життєвих рішень і, можливо, навіть розвитку емоційної прихильності до цього. Більше людей могли б почати думати про ботів як про друзів чи навіть романтичних партнерів, приблизно так само, як Теодор Твомблі закохався в Саманту, віртуального помічника ШІ у фільмі Спайка Джонза «Її».

Люди, зрештою, схильні до антропоморфізації, або приписувати людські якості нелюдям. Ми називаємо наші човни та великі шторми; деякі з нас розмовляють зі своїми домашніми тваринами, кажучи це собі наше емоційне життя імітує їх власне.

У Японії, де роботи регулярно використовуються для догляду за літніми людьми, люди похилого віку прив’язуються до машин, іноді дивляться на них як на власних дітей. І цих роботів, зауважте, важко сплутати з людьми: вони не виглядають і не говорять як люди.

Подумайте, наскільки більшою буде тенденція та спокуса до антропоморфізації з впровадженням систем, які дійсно виглядають і звучать як люди.

Така можливість не за горами. Великі мовні моделі, такі як ChatGPT, уже використовуються для роботи гуманоїдних роботів, наприклад роботи Ameca розробляється Engineered Arts у Великій Британії. Технологічний подкаст Economist, Babbage, нещодавно провів інтерв’ю з Ameca, керованою ChatGPT. Відповіді робота, хоч іноді й уривчасті, були дивовижними.

Чи можна довіряти компаніям, що вони будуть робити правильні речі?

Тенденція розглядати машини як людей і прив’язуватися до них у поєднанні з машинами, що розробляються з людськими характеристиками, вказує на реальні ризики психологічного зв’язування з технологіями.

Дивовижні перспективи закохатися в роботів, відчути з ними глибоку спорідненість або піддатися політичному маніпулюванню ними швидко матеріалізуються. Я вважаю, що ці тенденції підкреслюють потребу в міцних огорожах, щоб гарантувати, що технології не стануть політично та психологічно катастрофічними.

На жаль, технологічним компаніям не завжди можна довіряти встановлення таких огорож. Багато з них досі керуються відомим девізом Марка Цукерберга швидко рухатися і ламати речі – директива випускати напівфабрикати, а потім хвилюватися про наслідки. За останнє десятиліття технологічні компанії від Snapchat до Facebook поставили прибутки над психічним здоров’ям своїх користувачів або цілісності демократій у всьому світі.

Коли Кевін Руз звернувся до корпорації Майкрософт щодо краху Сіднея, компанія сказала йому що він просто надто довго використовував бота і що технологія пішла з ладу, оскільки була розроблена для коротшої взаємодії.

Так само генеральний директор OpenAI, компанії, яка розробила ChatGPT, у момент неймовірної чесності, попередив це «Помилково покладатися на [це] у будь-чому важливому прямо зараз… нам потрібно багато працювати над надійністю та правдивістю».

Отже, який сенс випускати технологію з рівнем привабливості ChatGPT – це споживча програма, яка розвивається найшвидше – коли ненадійний, а коли є відсутність здатності розрізняти факт з вигадки?

Великі мовні моделі можуть виявитися корисними як допоміжні засоби для письма і кодування. Ймовірно, вони революціонізують пошук в Інтернеті. І одного разу, якщо їх відповідально поєднати з робототехнікою, вони навіть можуть мати певні психологічні переваги.

Але вони також є потенційно хижацькою технологією, яка може легко скористатися перевагами людської схильності проектувати особистість на об’єкти – тенденція посилюється, коли ці об’єкти ефективно імітують людські риси.Бесіда

про автора

Нір Ейсіковіц, професор філософії та директор Центру прикладної етики, UMass Бостон

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.