Машинний інтелект: як алгоритми управляють нашим життям
Створення інноваційних проривів — це завжди завдання величезної складності. Але ще складніше прорахувати наслідки радикальних нововведень. У своїй книзі «Human’s Guide to Machine Intelligence: How Algorithms Are Shaping Our Lives and How We Can Stay» («Людський путівник по царині машинного інтелекту: як алгоритми управляють нашим життям і як нам не втратити контроль»)1 Вартонський професор Картік Хосанагар (Kartik Hosanagar) аналізує, які небезпеки можуть виникнути у світі, де все більше рішень приймаються алгоритмами.
Хосанагар, який розробляв алгоритми для низки компаній (зокрема ті, що допомагають підвищувати ефективність маркетингу, реклами та тестують веб-сайти), багато років вивчає їхній вплив на людей. У центрі книги — людська поведінка, яку намагаються змінювати AI-алгоритми, та людська психологія — яка не лише визначає нашу реакцію на дії алгоритмів, але й формує пов’язані з цим занепокоєння.
Як правило, більше всього лякає те, що машини позбавлять нас роботи або що наступить мить пробудження машин і вони намагатимуться знищити людей. Менш очевидним є те, що алгоритми вже мають глибокий вплив на наші вибори і рішення, змінюючи нас (причому так, що часто ми цього просто не помічаємо).
Картік Хосанагар переконаний у тому, що машинне навчання може дати людству тривалі переваги — серед іншого, кардинально підвищити точність медичного діагностування та вдосконалити управління грошовими ресурсами. Але також він дуже гостро усвідомлює небезпеки, які можуть виникнути у міру того як AI-алгоритми ставатимуть повсюдними. Автор наголошує, що якщо зараз ми ігноруватимемо потенційні негативні наслідки машинного навчання, то ризикуємо отримати масове неприйняття цієї технології (не виключено, що у вигляді відкритого спротиву), що може вповільнити хід розвитку інновацій у важливих сферах.
Алгоритми не лише допомагають нам швидше знаходити потрібні продукти та послуги. Вони впливають на те, що ми споживаємо та в якій кількості. Частково це можна пояснити тим, що ми не завжди знаємо, чого шукаємо (навіть попри нашу переконаність у протилежному). Так, спочатку Match.com просила користувачів описати ідеального партнера для побачень і розробляла алгоритми, що в основному спиралися на слова клієнтів. Але з часом компанія відійшла від цього, поклавши в основу своїх алгоритмів дані про профілі, які продивлялися користувачі — іншими словами, почала більшою мірою враховувати не що кажуть клієнти, а що вони роблять і у підсумку суттєво покращила якість своїх рекомендацій.
Автор зазначає, що це історія не про бізнес-успіх, а про те, як компанія вирішила, що може зрозуміти своїх клієнтів краще, ніж вони самі, та надавати їм не те, чого вони просять, а чого, як їй здається, хочуть.
Навряд чи такі маніпулювання поведінкою є тим, що ми хотіли би бачити у світі машинного навчання. Два сумнозвісні психологічні експерименти, проведені Facebook показали: маніпулювання стрічкою новин впливає на уподобання та настрій користувачів. (У рамках одного досліду протягом тижня 689 тис. англомовним користувачам показувалися тільки позитивні або тільки негативні новини. В результаті ті, хто бачив лише негатив, почали поширювати інформацію такого ж типу; а ті, хто бачив тільки позитив, виявляли оптимістичний настрій.)
Отже, потужні гравці ринку соціальних медіа можуть суттєво змінювати поведінку користувачів. Для цього достатньо впровадити незначні зміни в алгоритми, які вирішують, що мають бачити люди. Як вже відомо, робити це можна так, що користувачі взагалі не помітять, що на їхні емоції та дії хтось впливає.
Сьогодні такі питання набувають особливо великий резонанс — частково тому, що самі алгоритми дедалі більшою мірою покладаються на машинне навчання. Тобто замість того аби реагувати виключно на запрограмовані команди, вони навчаються на власному досвіді (що накопичується у вигляді величезних масивів даних) та вирішують, які стратегії розв’язання проблеми є найоптимальнішими. Наприклад, 2015-го року дослідники Лікарні на горі Синай (Торонто) запрограмували алгоритм глибинного навчання на вивчення інформації про результати медичних тестів та діагнози, поставлені 700 тис. пацієнтів, та виведення на основі цього власних діагностичних правил. У підсумку алгоритм став таким же досконалим діагностом, як і найдосвідченіші лікарі.
Ще один приклад. Розроблений Google алгоритм AlphaGo навчився грати у відому ще в Давньому Китаї гру Го, вивчаючи базу даних, яка містила 30 млн ходів, зроблених професійними гравцями, а потім, зігравши мільйони партій сам проти себе. Алгоритм став найкращим у світі гравцем в Го, а професіонали заговорили про оригінальність його ходів. Проте найцікавішим є те, що розробники AlphaGo так і не змогли до кінця збагнути, чому алгоритм робив те, що робив. Коли питання стосується гри, можливо, це не так вже й важливо. Набагато серйознішою є справа, коли алгоритмам передається прийняття рішення у таких сферах, як фінанси, медична діагностика і судові справи (наприклад, коли вирішується, яких підозрюваних можна випустити під заставу, а яких слід залишити за ґратами).
За матеріалами strategy+business.
1 Книга увійшла до переліку «Найкращі бізнес-книги 2019-го року», категорія «Технології та інновації», за версією strategy+business.
|