Всі ми стали свідками нової чудової тенденції – гонки нейромереж на базі штучного інтелекту, в центрі якої знаходиться великий головний герой: ChatGPT . Однак незважаючи на численні переваги подібних програм, їх застосування можливе не тільки на благо, а й на шкоду. Саме «темній стороні» нейронок присвячено дослідження багатьох аналітичних агентств в останні місяці.
За словами аналітиків, зловмисники вже освоїли комплексний підхід до використання API OpenAI (алгоритм, що лежить в основі ChatGPT та інших програм) у своїх цілях.
Нейромережу залучають для перетворення шкідливого коду з однієї мови програмування на іншу, сприяючи міжплатформному поширенню вірусів. Основна проблема полягає в тому, що код, згенерований АІ, потенційно має дуже негативний вплив на кібербезпеку, оскільки захисного програмного забезпечення, написаного людьми, може бути замало для його придушення.
“Поки що це досить простий код, але вже зараз його можна використовувати”, – пояснюють експерти Check Point Software. «Одна з речей, для яких АІ хороший, — це автоматизація. Якщо хакери зможуть навчити чат-бота обходити захист, він продовжить навчатися, і стане інструментом для злому, що самовдосконалюється» — додають вони.
Також чат-боти активно використовують для написання фішингових електронних листів. В останньому звіті дослідники Recorded Future пишуть: «Здатність ChatGPT переконливо імітувати людську мову дозволяє йому стати потужним інструментом фішингу та соціальної інженерії». Експерти протестували чат-бота на цей вид атаки і попередили про відсутність граматичних помилок, що в таких випадках є відмінним показником шахрайських листів.
“Відсутність подібних індикаторів серйозно підвищує ймовірність того, що користувачі стануть жертвами фішингових розсилок, складених чат-ботами, які змусять їх надати особисту інформацію”, – пояснюють у Recorded Future.
З іншого боку, ще одна загроза, яку ми поступово спостерігаємо, – це дезінформація. Кіберзлочинці у своїх цілях активно займаються поширенням хибних відомостей прямолінійним та обманним шляхом. Вони грають на таких темах, як стихійне лихо, національна безпека, спекуляції, пов’язані з пандемією, щоб підштовхнути людей до переказу грошей або видачі своїх особистих даних.
Як вирішити цю проблему з ChatGPT?
З огляду на все це виникає питання: чи можна переробити ChatGPT або інші інструменти АІ так, щоб запобігти їх використанню з метою зловмисників? На жаль, відповідь тут буде не такою простою, як може здатися.
ChatGPT і подібні інструменти просто не можуть визначити, добрий чи поганий намір має людина, яка ним користується. І це є велика проблема. Для таких випадків OpenAI працює над методом нанесення «водяних знаків» на результати праць GPT, які згодом можна використовувати як доказ того, що вони були створені АІ, а не людьми. Але цей метод можна застосувати, наприклад, до дипфейків. А як бути зі згенерованим текстом чи шкідливим кодом?
Поки що таке рішення видається явно недостатнім. Давайте не будемо дуже турбуватися, оскільки, хоча ChatGPT простий у використанні на базовому рівні, втручання, щоб він міг генерувати шкідливе програмне забезпечення, вимагає технічних навичок, недоступних багатьом хакерам. Слід ставитись до всього цього з деякою заклопотаністю, але без драматизму, і сподіватися, що такі компанії, як OpenAI, вирішать ці проблеми вчасно.