chatGPT
Група видатних комп’ютерних вчених та інших видатних діячів технологічної індустрії закликає до шестимісячної паузи в технології штучного інтелекту. (Шаттерсткі)

Недавній відкритий лист комп’ютерників і лідерів технологічної галузі закликаючи до шестимісячної заборони на розвиток штучного інтелекту має отримав широкий резонанс в Інтернеті. Навіть міністр інновацій Канади Франсуа-Філіп Шампань відповів на лист у Twitter.

У листі, опублікованому некомерційною організацією Future of Life Institute, міститься прохання до всіх лабораторій штучного інтелекту припинити навчання систем ШІ, потужніших за GPT-4, модель ChatGPT. У листі стверджується, що штучний інтелект «заблокований у неконтрольованій гонці за розробкою та розгортанням все більш потужних цифрових розумів, які ніхто — навіть їхні творці — не можуть зрозуміти, передбачити чи надійно контролювати».

У листі припускається, що ШІ стає або може стати «потужним цифровим розумом» — a довгострокове тлумачення розвитку ШІ Що ігнорує важливі дебати про ШІ сьогодні замість занепокоєння майбутнім.

Довготермінізм і ШІ

Довготермінізм - це віра в те, що штучний інтелект створює довгострокові або екзистенціальні ризики для майбутнього людства, стаючи неконтрольованим суперінтелектом.


innerself subscribe graphic


Занепокоєння щодо надрозумних штучних інтелектів зазвичай є предметом наукової фантастики. Фантазії ШІ є одним із багатьох страхів у Кремнієвій долині що може призвести до темні пророцтва. Але як і Мем Torment Nexus, ці занепокоєння перетворюються на великі інвестиції, а не на обережність. Більшість великих технологічних фірм мають скоротити відповідальні команди ШІ.

ChatGPT, очевидно, не є шляхом до суперінтелекту. У відкритому листі розглядається мовна технологія ШІ, як-от ChatGPT, як когнітивний прорив — те, що дозволяє ШІ конкурувати з людьми у загальних завданнях. Але це лише одна думка.

Є багато інших, які вважають ChatGPT, його модель GPT-4 та інші моделі вивчення мови такими "стохастичні папуги" які просто повторюють те, що вони вивчають онлайн, тому вони з'являтися розумний для людей.

Сліпі плями суперінтелекту

Довготермінізм має прямі політичні наслідки, які віддають пріоритет суперінтелекту над більш актуальними питаннями, такими як Дисбаланс сил ШІ. Деякі прихильники довготермінізму навіть вважайте регулювання, спрямоване на припинення суперінтелекту, більш терміновим, ніж вирішення надзвичайної кліматичної ситуації.

Наслідки політики штучного інтелекту є негайними, недалекими. Оскільки GPT-4 навчається в усьому Інтернеті та має виключно комерційні цілі, це піднімає питання щодо чесного поводження та добросовісного використання.

Ми досі не знаємо, чи захищені авторським правом тексти та зображення, створені штучним інтелектом, оскільки машини і тварини не може мати авторські права.

А коли справа доходить до питань конфіденційності, підхід ChatGPT важко відрізнити від іншого додатка ШІ, Clearview AI. Обидві моделі штучного інтелекту були навчені з використанням величезної кількості особистої інформації, зібраної у відкритому Інтернеті. Італійський орган із захисту даних щойно заборонив ChatGPT через проблеми конфіденційності.

Ці безпосередні ризики не згадуються у відкритому листі, який коливається між дикою філософією та технічними рішеннями, ігноруючи проблеми, які стоять прямо перед нами.

Заглушення прагматизму

Лист дотримується давньої динаміки, яку ми з моїм співавтором ідентифікуємо в a майбутній рецензований розділ про управління ШІ. Існує тенденція розглядати ШІ або як екзистенційний ризик, або як щось приземлене та технічне.

Напруга між цими двома крайнощами проявляється у відкритому листі. У листі стверджується, що «передовий штучний інтелект може спричинити глибокі зміни в історії життя на Землі», а потім закликає до «значного державного фінансування технічних досліджень безпеки штучного інтелекту». Останнє припускає, що соціальна шкода штучного інтелекту є лише технічними проектами, які потрібно вирішити.

Зосередження уваги на цих двох крайнощах витісняє важливі голоси, які намагаються прагматично обговорити безпосередні ризики ШІ, згадані вище, а також трудові питання та інше.

Увага до відкритого листа особливо проблематична в Канаді, оскільки два інших листи, написані художників та організації громадянських свобод, не отримали такої ж кількості уваги. Ці листи закликають до реформ і більш надійного підходу до управління ШІ, щоб захистити тих, хто постраждав від нього.

Непотрібне відволікання на законодавство щодо ШІ

Відповіді уряду на відкритий лист підкреслюють, що Канада дійсно має законодавство: Закон про штучний інтелект і дані (AIDA). Довгострокові ризики штучного інтелекту використовуються для прискорення законодавства, як AIDA.

AIDA є важливим кроком до належного режиму управління штучним інтелектом, але це необхідно краще проконсультуватися з тими, хто постраждав від ШІ перед реалізацією. Не можна поспішно реагувати на передбачувані тривалі страхи.

Заклики в листі поспішно прискорити прийняття законів про штучний інтелект можуть в кінцевому підсумку принести перевагу тим самим кільком компаніям, які сьогодні проводять дослідження ШІ. Не маючи часу на консультації, підвищення грамотності громадськості та вислуховування тих, хто постраждав від штучного інтелекту, AIDA ризикує передати підзвітність та аудит установам, які вже мають хороші позиції, щоб отримати вигоду від технології, створюючи ринок для нової галузі аудиту штучного інтелекту.

Можливо, на кону не стоїть питання про долю людства, але належне управління ШІ точно.The Conversation

про автора

Фенвік Маккелві, доцент кафедри політики інформаційно-комунікаційних технологій, Університет Конкордія

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.