Тренди-2019: надлюдський капітал
Джерело: open
Про штучний інтелект, а також загрози та можливості, які він створює, говорять роками, але зараз на перший план виходить ще один його аспект. А саме — етичні алгоритми, які дозволяють ШІ приймати неупереджені рішення. Вони визначатимуть одну з найвпливовіших тенденцій поточного року.
Наші життя все більше визначаються рішеннями, що приймаємо не ми, а штучний інтелект чи математичні алгоритми, закладені в певні сервіси. Проблема в тому, що нерідко навіть машини можуть бути упередженими та діяти у дуже вузьких рамках. Наприклад, існують підтвердження тому, що програми з розпізнавання обличчя працюють значно надійніше для білих чоловіків. А Amazon навіть довелось відмовитись від власної подібної технології (яку планувалось застосовувати для найму працівників), оскільки виявилось — алгоритм, на якому вона базується, «упереджений» проти жінок.
Подібні випадки змінюють ставлення людей до технологій у цілому. Нещодавно було проведено дослідження Brands in Motion, у межах якого опитали 27 000 людей на восьми ринках. Виявилось, що 97% споживачів зараз очікують від брендів етичного використання технологій. А 94% вважають: якщо цього не відбуватиметься, держава має втрутитись і навести лад у цій сфері.
Таким чином, технології та технологічні компанії вже не є «священною коровою», вимоги до них суттєво зростають. І бізнесу варто враховувати побажання споживачів, розробляючи все більш етичні алгоритми та використовуючи їх мудро.
Ця тенденція проявляється, у тому числі, у появі сервісів, подібних до Fairness Flow. Його було представлено у травні 2018-го на конференції розробників Facebook. Мета цього інструменту — допомогти визначити упередження, що впливають на алгоритми платформи, у тому числі зумовлені статтю і віком. Зараз Fairness Flow доступний кожному інженерові Facebook. Схоже, що подібні інструменти користуватимуться неабиякою популярністю: адже у США вже є прецеденти судових позовів до Facebook та його рекламодавців, що таргетують рекламу, скажімо, виключно на чоловіків.
97% споживачів зараз очікують від брендів етичного використання технологій. А 94% вважають: якщо цього не відбуватиметься, держава має втрутитись
Восени 2018-го року IBM проанонсувала вихід пакету продуктів, що мають збільшити прозорість штучного інтелекту і зменшити його упередженість. Цей пакет дозволяє користувачам перевіряти, чи не є якась людина чи група людей суб’єктом заангажованості, а розробникам — визначати, що може ставати причиною упередженості ШІ, і отримувати рекомендації щодо того, як це виправити. Ці інструменти можуть використовуватися як на власній платформі IBM — Watson — так і на сторонніх, на кшталт Tensorflow чи AzureML.
Цікавий кейс втілення описаної тенденції — неприбуткова організація Crisis Text Line, розташована в США. Вона провела навчання вже 12 тис. психологів-консультантів, які надають психологічну допомогу в месенджерах (і наразі їхні розмови з клієнтами нараховують вже 62 млн. повідомлень). Навесні 2018-го ця організація запустила комерційну платформу Loris.ai, мета якої — допомогти у навчанні спеціалістів, що мають вести важкі розмови. Алгоритм, що поєднує машинний інтелект та емпатію, може стати прикладом етичної автоматизації, якої прагнуть люди в усьому світі.
Якщо ваша компанія вже використовує штучний інтелект та алгоритми, то перший крок у напрямку описаного тренду, — перевірити, чи не є вони упередженими. Компанії-гіганти — наприклад, Facebook, — вже це роблять, і на черзі решта ринку.
Втім, ця тенденція зачепить не тільки технологічні організації. Адже майже всі, так чи інакше, використовують цифрові комунікації у спілкуванні з клієнтами (скажімо, чатботів). Помилку, якої може припуститись людина-працівник, споживачі пробачать легше, аніж помилку алгоритму. Тому бізнесу потрібно або зробити своїх цифрових «помічників» бездоганними («надлюдськими»), або більш «людяними» — в залежності від того ефекту, якого він прагне досягти.
За матеріалами trendwatching.com.
|