Як штучний інтелект впливає на аудит | KPMG | UA
close
Share with your friends

Як штучний інтелект впливає на аудит

Як штучний інтелект впливає на аудит

Штучний інтелект, blockchain, інтернет речей несуть величезні можливості для створення конкурентної переваги бізнесу.

1000

Партнер, керівник галузевої практики транспорту та інфраструктури

KPMG в Україні

Контакт

За цією темою

Джерело: НВ Бізнес

Штучний інтелект, blockchain, інтернет речей несуть величезні можливості для створення конкурентної переваги бізнесу.

Проте використовуючи їх, компанії беруть на себе й більш високий рівень ризику, отже менеджмент має замислитись щодо шляхів його мінімізації.

Із зростанням проникнення інтернету та смартфонів в Україні кількість даних, одержуваних від клієнтів, також зростає. Підвищується потреба в якісних рішеннях на основі штучного інтелекту та великих даних, а коло застосування таких рішень стрімко розширюється. Уже сьогодні бізнес використовує штучний інтелект для спілкування з клієнтами 24/7, в онлайн-торгах, у сфері електронної комерції, в банках, у міському управлінні. Зокрема, в Києві планується використовувати штучний інтелект у таких сферах як безпека міста, інфраструктура, освіта тощо. У Голландії, наприклад, використовували алгоритми на основі штучного інтелекту, щоб забезпечити рівну заповнюваність шкіл, надавши при цьому оптимальні умови і можливості всім дітям.

Використання аналітики та технологій, робота з великими даними підвищують ефективність прийняття рішень, дають можливість створювати нові бізнес-моделі й екосистеми, а також покращувати клієнтський досвід. При цьому організації будь-якого типу очікують, що їх бізнес-рішення будуть ґрунтуватися на надійній аналітиці даних. Відповідно, питання оцінки ризиків використання технологій і даних стають все більш актуальними.

Чому забезпечення впевненості в епоху машин важливіше, аніж будь-коли? Як забезпечити адекватність процесів аналізу даних? І чи є у вас як у керівника компанії або просто як у громадянина розуміння та довіра до штучного інтелекту та машинних алгоритмів?

Це серйозні питання для всіх організацій, які почали змагання в цифрових перегонах. Нові технології несуть не тільки конкурентні переваги, але і більш високий рівень ризику. Наприклад, керівництву пропонується приймати важливі рішення виходячи з результатів алгоритму, який вони не створювали та не розуміють повністю. Згідно з останнім звітом КPMG Guardians of Trust, в результаті опитування 2200 керівників міжнародних компаній, які приймають рішення з питань інформаційних технологій і бізнесу, виявилося, що лише 35% мали високий рівень довіри до аналітики своєї організації. Керівники компаній починають задавати складні питання про достовірність даних і аналітики. Дослідження вказує на існування чіткої необхідності в активному управлінні аналітикою з метою зміцнення довіри.

Інший аспект проблематики надійності даних і пов'язаних з цим ризиків – визначення, хто несе відповідальність і в якій мірі, якщо щось піде не так. Скільки б ми не звинувачували свої комп’ютери, вони лише машини і тому не можуть відповідати за рішення або інсайти, які вони генерують. За данимивищезгаданого дослідження, 62% респондентів вважають, що в разі аварії без жертв, викликаної автономним транспортним засобом, коли їм не керувала людина-водій, відповідальність повинен нести розробник програмного забезпечення. Однак відповідь на запитання "хто повинен нести відповідальність в ситуаціях з більш значущими наслідками?", раніше озвучене такими відомими особистостями, як Хокінг і Маск, до сих пір залишається відкритим, хоча активно обговорюється в суспільстві.

По мірі зростання використання машинного навчання та штучного інтелекту ми можемо бути здивовані, як машини можуть нас підвести:

  • Проблема поведінки "супер-людини" - іноді його функціонування стає "занадто довершеним", і ми опинимося в ситуації, коли стає неможливим передбачити його наслідки. Тут пригадується повстання машин з відомого фантастичного фільму.
  • Проблема поведінки "недо-людини" - попри те, що алгоритми можуть здаватися неймовірно розумними, результатом їх використання може стати абсолютна ненормальна ситуація. Наприклад, люди можуть бути "травмовані GPS" через виконання застарілих та неправильних вказівок: відомі випадки, коли люди в'їхали в Долину Смерті та зникли через відсутність правильних даних GPS.
  • Проблема поведінки "поганої людини" - алгоритми, які використовують для машинного навчання, можуть також отримати шкідливі звички. Були випадки, коли непорядні користувачі "вчили" алгоритми розповсюджувати повідомлення, написані мовою ненависті та із дискримінаційними висловлюваннями.

Тож для того, щоб штучний інтелект був насправді трансформаційним для бізнесу, ми повинні довіряти тому, як він функціонує. Саме тому комплексна модель забезпечення впевненості є настільки важливою. Вона має породжувати довіру, гарантуючи, що алгоритми надійні, система є безпечною в кібернетичному сенсі, що ІТ-процеси та засоби управління належним чином впроваджуються, що запроваджене адекватне управління даними і що існує структура управління, яка розуміється на етиці машинного навчання. Це розуміння згодом повинно бути включено в управління широким колом організаційних ризиків, таких як потенційний вплив збою на фінансові результати чи репутацію.

Якщо розглянути цю модель забезпечення впевненості, проведення "аудиту" штучного інтелекту аналогічне до аудиторської перевірки фінансової звітності та внутрішніх контролів. Застосовуються ті ж самі принципи та належна практика, як, наприклад, три лінії захисту та оцінка суттєвості впливу потенційних помилок. Так само, як і у випадку із фінансовою звітністю, публічні інтереси мають бути найвищим пріоритетом для "аудитора", включаючи абсолютну готовність бути прозорими та тісно співпрацювати з національними та міжнародними регулюючими органами. І в цьому випадку "аудитор" також підзвітний широкій громадськості, а також регуляторам і корпоративному сектору.

Зрештою, управління машинами не повинно суттєво відрізнятися від управління людьми, і це повинно бути інтегровано у структуру всього підприємства. Таким чином, ті, на кого впливають рішення прийняті штучним інтелектом, довірятимуть системі так само, як голландські батьки, чиї діти матимуть більш рівні шанси на обрання школи за допомогою машинного алгоритму, що пройшов незалежний "аудит".

Підпишіться на розсилку новин KPMG в Україні.

Підпишіться на нашу сторінку Facebook

KPMG у соцмережах

  • Знайти офіс kpmg.findOfficeLocations
  • kpmg.emailUs
  • КПМГ у соцмережах kpmg.socialMedia
 

Запит про послуги KPMG

 

Відправити