Звідки комп’ютер знає, куди ви дивитесь?

Уявіть, що ви їдете на автомобілі, використовуючи проекцію дисплея на лобовому склі, щоб рухатись незнайомим містом. Це доповнена реальність (AR); інформація використовується не лише для того, щоб вести вас по маршруту, але й для попередження про важливу інформацію у вашому оточенні, наприклад про велосипедистів чи пішоходів. Правильне розміщення віртуального вмісту є не тільки вирішальним, але, можливо, питанням життя та смерті.

Інформація не може затемнити інші матеріали, і вона повинна відображатися досить довго, щоб ви її зрозуміли, але не надто довше, ніж це. Комп’ютерні системи повинні приймати ці визначення в режимі реального часу, не викликаючи при цьому жодної інформації, яка відволікає чи нав'язлива. Ми, звичайно, не хочемо попередження про велосипедиста, який збирається перетнути перед автомобілем, щоб затулити саму велосипедистку!

Як дослідник AR, я витрачаю багато часу на те, щоб з’ясувати, як отримати потрібну інформацію на екран користувача в потрібному місці в потрібний момент. Я дізнався, що показ занадто великої кількості інформації може заплутати користувача, але недостатнє відображення може зробити програму марною. Ми повинні знайти солодке місце між ними.

Виявляється, вирішальним елементом цього є знання того, куди шукають користувачі. Тільки тоді ми можемо доставити потрібну їм інформацію в місце, де вони можуть її обробити. Наше дослідження включає вимірювання, де користувач дивиться в реальну сцену, як спосіб допомогти вирішити, де розмістити віртуальний вміст. З AR, готовим проникнути в багато сфер нашого життя - від водіння до робота до відпочинок - нам потрібно буде вирішити цю проблему, перш ніж ми зможемо розраховувати на AR для підтримки серйозних або критичних дій.

Визначення місця розміщення інформації

Це має сенс, коли інформація з’являється там, де користувач шукає. Під час навігації користувач міг поглянути на будівлю, вулицю чи інший реальний об’єкт, щоб виявити відповідну віртуальну інформацію; система знала б, щоб приховати всі інші дисплеї, щоб уникнути захаращення видимої сцени.


Innersele підписатися графіка


Але звідки ми знаємо, на що хтось дивиться? Виявляється, нюанси людського зору дозволяють нам розглянути на очах людини і обчислити, куди вони дивляться. Поєднавши ці дані з камерами, що відображають поле зору людини, ми можемо визначити, що людина бачить і на що вона дивиться.

Системи відстеження очей вперше з’явилися в 1900-х роках. Спочатку їх в основному використовували для вивчення моделей читання; деякі можуть бути дуже нав'язливими для читача. Зовсім недавно з’явилося відстеження очей у режимі реального часу, яке стало доступнішим, простішим в експлуатації та меншим.

Окотрекери можна прикріпити до екран або вбудований у носні окуляри або на головні дисплеї. Очі відстежуються за допомогою комбінації камери, проекції та алгоритми комп’ютерного зору для обчислення положення ока і точки погляду на моніторі.

Ми, як правило, розглядаємо два показники при дослідженні даних відстеження очей. Перший називається a фіксація, і використовується для опису, коли ми робимо паузу, часто на цікавому місці сцени, оскільки це привернуло нашу увагу. Другий - a саккаде, один із швидких рухів очей, що використовується для позиціонування погляду. Короткі періоди фіксації супроводжуються швидкими рухами, які називаються саккадами. В основному, наші очі швидко кидаються з місця на місце, беручи шматочки інформації про частини сцени. Потім наш мозок збирає інформацію з цих фіксацій, щоб сформувати візуальний образ у нашій свідомості.

{youtube}tdFIvRMvFQI{/youtube}

Поєднання відстеження очей з AR

Часто вміст AR прив'язується до реального об'єкта або місця. Наприклад, на цій вулиці повинна відображатися віртуальна мітка, що містить назву вулиці. В ідеалі ми хотіли б, щоб мітки AR відображалися близько до реального об’єкта, з яким він пов’язаний. Але нам також слід бути обережними, щоб не дати різним міткам AR перекритись і стати нечитабельними. Існує багато підходів до управління розміщенням етикеток. Ми вивчаємо один із варіантів: розрахувати, куди людина дивиться в реальній сцені, і відображати мітки AR лише в цьому місці.

Скажімо, наприклад, користувач взаємодіє з мобільним додатком, який допомагає йому робити покупки низькокалорійної крупи в продуктовому магазині. У додатку AR кожна крупа містить інформацію про калорії. Замість того, щоб фізично піднімати кожну коробку з зерновими та читати поживний вміст, користувач може підняти свій мобільний пристрій і направити його на конкретну коробку з зерновими, щоб розкрити відповідну інформацію.

Але подумайте про те, наскільки переповнений зерновий прохід магазину різними упаковками. Без будь-якого способу управління відображенням етикеток AR, відображатимуться інформаційні мітки про калорії для всіх ящиків із зерновими. Неможливо визначити вміст калорій у крупі, яка його цікавить.

Відстежуючи його очі, ми можемо визначити, в яку окрему зернову коробку дивиться користувач. Потім ми відображаємо інформацію про калорії для цієї конкретної каші. Коли він переводить погляд на іншу коробку, ми показуємо цифри для наступної, яку він розглядає. Його екран не захаращений, інформація, яку він хоче, легко доступна, і коли йому потрібна додаткова інформація, ми можемо її відобразити.

Цей тип розробок робить захоплюючий час для досліджень AR. Наша здатність інтегрувати реальні сцени з комп’ютерною графікою на мобільних дисплеях покращується. Це підживлює перспективу створення приголомшливих нових додатків, які розширюють нашу здатність взаємодіяти, навчатись і розважати навколишній світ.

про автора

Енн Макнамара, доцент кафедри візуалізації, Техаський університет A&M

Ця стаття була спочатку опублікована на Бесіда. Читати оригінал статті.

Суміжні книги

at

перерву

Дякуємо за відвідування InnerSelf.com, де є 20,000 + статті, що змінюють життя, пропагуючи «Нові погляди та нові можливості». Усі статті перекладено на 30+ мов. Підписуватися для журналу InnerSelf, що виходить щотижня, та щоденного натхнення Марі Т. Рассел. Журнал InnerSelf видається з 1985 року.