Штучний інтелект тепер може наслідувати поведінку людей, і незабаром це буде небезпечно добреЦе обличчя - лише збірка комп’ютерних бітів? ФОТОКРЕО Міхал Беднарек / Shutterstock.com

Коли системи штучного інтелекту починають займатися творчістю, вони можуть створювати чудові речі - і страшні. Візьмемо, наприклад, програму ШІ, яка дозволила користувачі Інтернету складають музику а також віртуальний Йоганн Себастьян Бах вводячи ноти в програму, яка генерує гармонії, схожі на Баха, щоб відповідати їм.

Запуск від Google, додаток малював великий хвала за те, що є новаторським та веселим для гри. Це також приваблювало критика, і висловив занепокоєння щодо небезпеки ШІ.

Моє дослідження про те, як нові технології впливають на життя людей навчив мене, що проблеми виходять за рамки загальновизнаного занепокоєння чи є алгоритми може реально створювати музику або мистецтво взагалі. Деякі скарги здавались невеликими, але насправді не були такими, як спостереження про те, що ШІ від Google порушення основних правил музичної композиції.

Насправді зусилля, спрямовані на те, щоб комп’ютери імітували поведінку реальних людей, можуть заплутати та потенційно зашкодити.


Innersele підписатися графіка


Технології уособлення

Програма Google проаналізувала ноти в 306 музичних творах Баха, виявивши взаємозв'язок між мелодією та нотами, що забезпечували гармонію. Оскільки Бах дотримувався суворих правил композиції, програма ефективно вивчала ці правила, тому могла застосовувати їх, коли користувачі надавали власні примітки.

 Команда Google Doodle пояснює програму Баха.

{youtube}XBfYPp6KF2g{/youtube}

Сам додаток Баха є новим, але основна технологія - ні. Алгоритми навчені розпізнати зразки і зробіть імовірнісні рішення існували давно. Деякі з цих алгоритмів настільки складні, що люди не завжди розуміють як вони приймають рішення або дають певний результат.

Системи ШІ не є досконалими - багато з них покладаються дані, які не є репрезентативними всього населення, або які є під впливом людських упереджень. Це не зовсім зрозуміло які можуть нести юридичну відповідальність коли система ШІ допускає помилку або викликає проблему.

Зараз, однак, технології штучного інтелекту набувають достатнього розвитку, щоб мати змогу наблизити стиль письма чи мовлення людей і навіть міміку. Це не завжди погано: досить простий ШІ дав Стівену Хокінгу вміння спілкуватися ефективніше з іншими, передбачаючи слова, які він би вживав найбільше.

Більш складні програми, що імітують людські голоси допомагати людям з обмеженими можливостями - але також може використовуватися для обману слухачів. Наприклад, виробники лірохвіст, програму, що імітує голос, випустили змодельована розмова між Бараком Обамою, Дональдом Трампом та Хіларі Клінтон. Це може звучати по-справжньому, але цього обміну ніколи не було.

Від хорошого до поганого

У лютому 2019 року некомерційна компанія OpenAI створила програму, яка генерує текст, який є практично не відрізняється від тексту написані людьми. Він може “написати” промову в стилі John F. Кеннеді, Дж. Р. Р. Толкін у “Володар кілець”Або студент, який пише шкільне завдання про громадянську війну в США.

Текст, згенерований програмним забезпеченням OpenAI, настільки правдоподібний, що компанія вибрала його не відпускати сама програма.

Подібні технології можуть імітувати фотографії та відео. Наприклад, на початку 2018 року актор і режисер Джордан Піл створив відео, яке, як видається, демонструє екс-президента США Барака Обами речі, які Обама насправді ніколи не говорив попередити громадськість про небезпеку, яку становлять ці технології.

Будьте обережні, яким відео ви вірите.

{youtube}cQ54GDm1eL0{/youtube}

На початку 2019 р підроблене оголене фото республіки США Олександрія Оказіо-Кортес розповсюджувалась в Інтернеті. Виготовлені відео, які часто називають “deepfakes, ”Очікується все більше і більше використовуваний у виборчих кампаніях.

Члени Конгресу почали вивчати це питання напередодні виборів 2020 року. Міністерство оборони США навчає громадськість як виявляти зафіксовані відео та аудіо. Новинним організаціям подобається Reuters починають навчати журналістів виявляти фальшиві фальшивки.

Але, на мій погляд, залишається ще більший занепокоєння: користувачі можуть бути не в змозі навчитися досить швидко, щоб розрізнити підроблений вміст, оскільки технологія ШІ стає все більш досконалою. Наприклад, оскільки громадськість починає знати про фальшиві підробки, ШІ вже використовується для ще більш прогресивних обманів. Зараз є програми, які можуть генерувати підроблені обличчя та підроблені цифрові відбитки пальців -, ефективно створюючи інформацію, необхідну для вироблення цілої людини - принаймні в корпоративних або державних документах.

Машини продовжують вчитися

На даний момент у цих технологіях достатньо потенційних помилок, щоб дати людям шанс виявити цифрові вигадки. Композитор Баха від Google допустив деякі помилки експерт міг виявити. Наприклад, коли я спробував, програма дозволила мені увійти паралельні п’яті, музичний інтервал, який Бах старанно уникати. Додаток також порушив музичні правила контрапункту, гармонізуючи мелодії в неправильному ключі. Подібним чином програма для генерування тексту OpenAI час від часу писала такі фрази, як «пожежі, що відбуваються під водою”, Що не мало сенсу в їхньому контексті.

Коли розробники працюють над своїми творами, ці помилки стануть рідше. Фактично, технології ШІ будуть розвиватися та вчитися. Покращена ефективність потенціалу може принести багато соціальних переваг, включаючи покращення охорони здоров’я, оскільки програми ШІ допомагають демократизувати практику медицини.

Надання дослідникам та компаніям свободи досліджень, щоб отримати ці позитивні досягнення у системах ШІ, означає відкриття ризику розробки більш досконалих способів створення обману та інших соціальних проблем. Суттєве обмеження досліджень ШІ могло б приборкати цей прогрес. Але даючи корисні технології кімната для зростання приходить не за невелику ціну - і потенціал зловживання, чи створювати неточну музику, схожу на Баха, чи обдурювати мільйони, швидше за все, зросте таким чином, що люди ще не можуть передбачити.Бесіда

про автора

Ана Сантос Рутшман, доцент кафедри права, Університет Сент-Луїса

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.

Суміжні книги

at InnerSelf Market і Amazon