ChatGPT і майбутнє бізнес-освіти
Мільйони користувачів випробували потенціал і можливості ChatGPT — чат-бота, розробленого дослідницькою компанією OpenAI — для написання електронних листів, віршів, коду або навіть цілих наукових робіт. Нещодавно чат-бот склав іспит на отримання ступеня MBA у Вортонській бізнес-школі, що викликало подальше захоплення і стурбованість.
Кілька видавців академічних журналів заборонили авторам використовувати ChatGPT, а професори змінюють іспити та завдання у відповідь на появу цього інструменту. Але чи є ChatGPT переломним моментом, який змінить бізнес-школи, якими ми їх знаємо?
Хоча багато хто з нас приголомшений тим, наскільки вражаючими і природними можуть бути результати, це не означає, що ChatGPT корисний для всього, що ми робимо. Ось які наслідки виявили для досліджень, викладання та навчання представники бізнес-школи INSEAD.
Корисний спаринг-партнер
Фаніш Пуранам (Phanish Puranam), професор стратегії
Особисто я вважаю ChatGPT корисним редактором текстів і перекладачем (у тому числі на мови програмування), але я не довіряю йому як пошуковій системі або джерелу знань — відповіді, які він видає (і які я не можу легко перевірити), викликають підозру, доки не буде доведено протилежне. Проте він корисний, коли я можу швидко перевірити, чи є версія правильною або чи працює код. Це також корисний спаринг-партнер при написанні текстів — навіть «помилки», яких він припускається, корисні для мене, і він може швидко генерувати багато варіацій на тему. Взаємодіючи з ним, я прояснив своє мислення на такі різні теми, як делегування та бритва Оккама.
Коли справа дійшла до завдань з відкритими компонентами, я почав просити студентів надсилати відповідь у ChatGPT на обрану ними тему і додавати до неї пояснення, як вони його використовували. Я не можу контролювати, чи застосовують вони його, чи ні, але це інструмент, яким вони повинні навчитися користуватися (моя думка була б іншою, якби я навчав молодших школярів, наприклад, старшокласників). Я кажу їм, що вони повинні менше турбуватися про те, що ChatGPT зробить їх непотрібними, а більше про те, що їх зробить непотрібними хтось, хто може ефективно використовувати такі технології.
Ефективний лише для вузьких запитів
Пушан Датт (Pushan Dutt), професор економіки
Коли я використовував ChatGPT для складання іспиту з мікроекономіки, результати були невтішними. Він відповів правильно лише на одне (з 20-ти) до смішного просте запитання про нещодавній крок ОПЕК+. Станом на сьогодні він не може достовірно додавати чи віднімати похідні, не має фундаментального розуміння і здатен лише автоматично завершувати речення. Це означає, що я можу спокійно проводити іспити з відкритими книжками і що моя робота в безпеці. Поки що.
ChatGPT є аналогом аргументу Джона Серля про китайську кімнату. Серль уявляє себе в кімнаті, де комп’ютерна програма реагує на китайські ієрогліфи, які йому підсовують під двері. Серль нічого не розуміє в китайській мові, але, слідуючи програмі, яка маніпулює символами та цифрами, він надсилає відповідні відповіді у вигляді рядків китайських ієрогліфів, які виходять назовні. Люди за дверима помилково припускають, що Серл розмовляє китайською. Це проходить тест Тюрінга. Але синтаксичні правила, що маніпулюють рядками символів, не мають реального розуміння значення. В цьому і полягає суть ChatGPT.
Здається, що ChatGPT переслідує три цілі: бути корисним, бути правдивим і бути необразливим. Однак, намагаючись бути корисним (і необразливим), він час від часу вигадує всяку маячню. Коли він намагається бути корисним і правдивим, він може говорити образливі речі. Чи зможе OpenAI, який навчається з підкріпленням за допомогою людського зворотного зв’язку, вловити і виправити це? Покарання за некорисні відповіді може підштовхнути штучний інтелект (ШІ) до неправдивих відповідей; покарання за неправдиві відповіді може призвести до образливих відповідей; а покарання за образливі відповіді може призвести до некорисних відповідей. OpenAI повинен впоратися з цією неможливою трійцею.
Трохи краща версія Siri
Фебо Віббенс (Phebo Wibbens), асоційований професор стратегії
Зважаючи на весь цей хайп, я був дещо розчарований ChatGPT. На перший погляд вражає те, чого він може досягти, але при ближчому розгляді виявляється, що це радше поступове вдосконалення віртуальних асистентів, таких як Siri. Хоча він покращив те, з чим ШІ вже добре справляється, наприклад, написання граматичних речень і переклад, він все ще погано справляється з тим, із чим ШІ ніколи не справлявся, зокрема, з написанням довших зв’язних текстів і розробкою нових ідей. Крім того, він розлогий і неконкретний у своїх відповідях, а коли дає конкретну відповідь (тобто однозначне «так» чи «ні»), то часто помиляється.
Хоча я не бачу безпосередніх прикладів використання для досліджень, найбільш важливим наслідком може бути плагіат ШІ, наприклад, у студентських завданнях і рукописах для рецензування, оскільки ChatGPT може писати текст, який виглядає правдоподібно. Однак зазвичай він не витримує ретельної перевірки, і основна проблема полягає в тому, що він не дуже добре знаходить джерела для своїх текстів.
Кардинально різні (і, можливо, неправильні) відповіді на одне й те саме питання
Антон С. Овчінніков (Anton S. Ovchinnikov), запрошений професор наук про прийняття рішень
Коли я використовував ChatGPT для складання іспиту на тему «Невизначеність, дані та судження», я виявив, що він здатен відповідати лише на прості запитання, які вимагають відповідей із підручників. Однак, коли питання були складнішими і вимагали більше концептуального розуміння, ChatGPT надавав елегантно написані відповіді, але повністю випускав із поля зору всю ситуацію і, відповідно, робив неправильний висновок.
На екзаменаційне питання про ймовірність перемоги в біговому забігу я поставив ChatGPT те саме питання тричі і отримав три кардинально різні відповіді з різною логікою і різними висновками. Всі три відповіді були неправильними. Цікаво, що ChatGPT припустився логічної помилки порівняння — він припустив, що, як і в інших видах спорту, вищий результат переможе нижчий, тоді як у бігу переможець має менший час. Також у розрахунках була допущена алгебраїчна помилка, яка є шокуючою для комп’ютерної моделі.
Можливо, на майбутніх іспитах ми будемо давати студентам рішення ШІ і просити їх знаходити і виправляти помилки, замість того, щоб змушувати їх розв’язувати задачі з нуля. Інший варіант — попросити студентів визначити, коли ChatGPT дає неправильну відповідь, і попросити їх перефразувати свої підказки та запитання, щоб отримати кращу відповідь.
Корисно для генерування альтернативних точок зору
Теодорос Евгеніу (Theodoros Evgeniou), професор наук про прийняття рішень та управління технологіями
ChatGPT може бути корисним для скорочення обсягу інформації, наприклад, для надання резюме статей, електронних листів і книг, але тільки якщо користувачі застосовують критичне мислення, щоб відсіяти недостовірну інформацію. Він також може допомогти генерувати «альтернативні точки зору», щоб зрозуміти, як різні групи людей сприймають такі речі, як описи продуктів, політичні заяви, заяви про місію або новини. Наприклад, ви можете попросити ChatGPT зробити амбіційний, компліментарний, цинічний або культурно-специфічний виклад тексту, щоб відкрити для себе нові способи мислення, поставити нові запитання, а також покращити оригінальний текст.
Це має наслідки для нашої системи освіти. Замість того, щоб відповідати на запитання, студентам майбутнього можуть запропонувати написати 10 запитань для ШІ та оцінити його відповіді на основі різних версій і поглядів. У цьому сенсі ШІ дійсно може виявитися цінним для освіти так само, як і друкарський верстат. «Суперкреативність» — концепція, яку ми окреслили кілька років тому — не за горами. За словами Себастьяна Труна (Sebastian Thrun), вченого, підприємця і засновника Google X:
«Ми ще навіть не почали розуміти, наскільки креативним стане ШІ. Якщо ви візьмете всі світові знання та креативність і помістите їх у пляшку, ви будете вражені тим, що з неї вийде».
Використовуючи ChatGPT для створення декількох текстів на певну тему, можна також відрізнити цей обсяг тексту від тих, що написані людиною, щоб виявити можливі відмінності та потенційні прогалини для досліджень. Ця здатність працювати разом зі штучним інтелектом для створення кращого контенту, ідей та інновацій буде ставати все більш важливою. У майбутньому нам також необхідно розробити інноваційні та ефективні процеси для спільної роботи людей із машинами та нагляду за ШІ, щоб гарантувати, що те, що він генерує або робить, є безпечним і надійним.
Вузька сфера застосування та унікальний результат
Філіп М. Паркер (Philip M. Parker), професор маркетингу
Є певні побоювання, що більш розвинена версія ChatGPT витіснить науковців із бізнесу. Питання полягає в тому, чи зможе цей інструмент зрештою писати академічні дослідження, які матимуть вищу якість або більш різноманітний характер, ніж ті, що ми маємо зараз. Системи на основі GPT мають вузьку сферу застосування і одиничні результати, але, як і IBM Watson, продукують новини і зачаровують людей, що не може не радувати.
Я вірю, що в майбутньому з’являться алгоритмічні журнали. Завдяки ним люди перевірятимуть алгоритми і прийматимуть те, що вони продукують. Ці алгоритми стануть брендом — так само, як Deep Blue, IBM Watson і ChatGPT — а «автором» буде людина, яка його запрограмувала. Статті будуть автоматично генеруватися і змінюватися в міру надходження нових даних. А якщо ми підемо трохи далі, то код тепер пише код — а це означає, що нам більше не потрібні інженери. Ми або самі будемо генерувати ці алгоритми, або використовувати їх.
За матеріалами «ChatGPT and the Future of Business Education», INSEAD Knowledge.
Ілюстрація: scientificworldinfo.com
|