4rupi02z

Р. Классен / Shutterstock

Чат-боти штучного інтелекту вже широко використовуються компаніями, щоб вітати клієнтів і відповідати на їхні запитання – по телефону або на веб-сайтах. Деякі компанії виявили, що вони можуть певною мірою замінити людей машинами в кол-центрах.

Однак наявні дані свідчать про те, що існують сектори, такі як охорона здоров’я та людські ресурси, де потрібно бути надзвичайно обережним щодо використання цих передових інструментів, і може знадобитися етичний нагляд.

Нещодавній і широко розрекламований приклад - це приклад a чат-бот під назвою Тесса, який використовувався Національна асоціація розладів харчової поведінки (NEDA) в США. Спочатку організація підтримувала лінію довіри, якою керували наймані працівники та волонтери. Це мало чітку мету допомогти вразливим людям, які страждають від розладів харчової поведінки.

Проте цього року орг розпустила персонал служби довіри, оголосивши, що замінить їх чат-ботом Tessa. Причини цього спірні. Колишні працівники стверджують, що зміна відбулася після рішення співробітників телефонної лінії об’єднатися в профспілку. The цитується віце-президент NEDA збільшення кількості дзвінків і часу очікування, а також юридичні зобов’язання щодо використання волонтерського персоналу.

У будь-якому випадку, після дуже короткого періоду роботи Тесса була виведена з мережі через повідомлення про те, що чат-бот видав проблемні поради, які могли посилити симптоми людей, які звертаються за допомогою щодо розладів харчової поведінки.


Innersele підписатися графіка


Також повідомлялося, що Доктор Еллен Фіцсіммонс-Крафт і доктор К. Барр Тейлор, двоє висококваліфікованих дослідників, які допомагали у створенні Tessa, заявили, що чат-бот ніколи не призначався як заміна існуючій лінії довіри або для надання негайної допомоги тим, хто відчуває інтенсивні симптоми розладу харчової поведінки.

Значне оновлення

Для чого була створена Тесса? Дослідники разом із колегами створили спостережливе дослідження висвітлюючи проблеми, з якими вони зіткнулися під час розробки чат-бота на основі правил для взаємодії з користувачами, які стурбовані розладами харчової поведінки. Це досить захоплююче читання, яке ілюструє вибір дизайну, операції, підводні камені та поправки.

Оригінальна версія Tessa була традиційною, чат-бот на основі правил, хоча й дуже витончений, який відповідає заздалегідь визначеній структурі, заснованій на логіці. Він не міг відхилятися від стандартизованих попередньо запрограмованих відповідей, відкаліброваних його творцями.

Їхній висновок включав наступне: «Чат-боти на основі правил мають потенціал для охоплення великої кількості населення за низькі витрати на надання інформації та просту взаємодію, але обмежені в розумінні та належному реагуванні на непередбачені відповіді користувачів».

Це може здатися обмеженим використанням, для якого Тесса була придатною. Отже, як це закінчилося заміною гарячої лінії, яка раніше використовувалася NEDA? Точний ланцюжок подій обговорюється на тлі різних облікових записів, але, згідно з NPR, хостингова компанія чат-бота змінила Tessa з чат-бота на основі правил із попередньо запрограмованими відповідями на чат-бота з «розширена функція питань і відповідей».

Пізніша версія Tessa використовувала генеративний штучний інтелект, схожий на ChatGPT і подібні продукти. Ці просунуті чат-боти зі штучним інтелектом створені для імітації шаблонів людської розмови з наміром давати більш реалістичні та корисні відповіді. Створення цих налаштованих відповідей покладається на великі бази даних інформації, які моделі ШІ навчені «розуміти» за допомогою різноманітних технологічних процесів: навчання за допомогою машини, глибоке навчання та обробка природного мови.

Вивчення уроків

Зрештою, чат-бот створив те, що було описано як потенційно шкідливі відповіді на запитання деяких користувачів. Подальші дискусії переклали провину з однієї установи на іншу. Однак суть залишається в тому, що наступних обставин потенційно можна було б уникнути, якби існував орган, який забезпечує етичний нагляд, «людина в курсі» та дотримання чіткої мети оригінального проекту Тесси.

Важливо винести уроки з таких випадків на тлі стрімкого інтеграції ШІ в різноманітні системи. І хоча ці події відбулися в США, вони містять уроки для тих, хто хоче зробити те саме в інших країнах.

Схоже, що Великобританія має дещо фрагментарний підхід до цього питання. Консультативна рада Центру етики даних та інновацій (CDEI) була нещодавно розпущена і її місце за столом зайняла новостворена спецгрупа Frontier AI. Є також повідомлення про те, що системи штучного інтелекту вже тестуються в Лондоні як інструменти для допомоги працівникам, але не як заміна лінії довіри.

Обидва ці приклади підкреслюють потенційну напругу між етичними міркуваннями та бізнес-інтересами. Ми маємо сподіватися, що обидва зрештою збігаються, збалансовуючи добробут людей з ефективністю та перевагами, які може надати ШІ.

Однак у деяких сферах, де організації взаємодіють із громадськістю, відповідей, створених штучним інтелектом, і симуляції співчуття може ніколи не вистачити, щоб замінити справжню людяність і співчуття, особливо в сферах медицини та психічного здоров’я.Бесіда

Марк Цагас, викладач кримінального права, Університет Іст-Лондона

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.