Softnews

Українцям розповіли про правила кібербезпеки під час використання ChatGPT

Чат-боти на кшталт ChatGPT не знайомі з поняттям «персональні дані» і не вміють їх обробляти, тому щоб уникнути витоків спілкуватися з ними потрібно так, ніби ви говорите з малознайомою людиною. Про це GSMinfo розповів програміст-розробник та співзасновник IT-компанії Slaxico Захар Бутенко.

«Біт зберігає у пам’яті все, що потрапляє до нього. При цьому існує можливість витоку інформації. Він може статися, якщо бот вирішить використовувати чужі дані у діалогах з іншими користувачами», – пояснив експерт.

Для запобігання подібним інцидентам Бутенко порекомендував дотримуватися кількох правил цифрової гігієни. Наприклад, потрібно усвідомлювати значущість даних і в жодному разі не повідомляти боту паролі від додатків, коди банківських карток, адреси, а також персоніфіковані дані на кшталт прізвища друзів та родичів.

“Це може здаватися неважливим на перший погляд, але часто через додаткову інформацію (умовно, дівоче прізвище дружини), можна дізнатися інші дані та скористатися ними”, – сказав експерт.

Генеративних роботів на зразок ChatGPT іноді використовують для складання юридичних документів. В цьому випадку, за словами Бутенка, не можна передавати адреси, грошові суми, назви компаній та осіб, які беруть участь у суперечці. Найкраще, за його словами, використовувати вигадані ідентифікатори.

У випадках, коли боти використовуються як робочий інструмент у корпоративному середовищі, експерт рекомендував створити регламент та закріпити в ньому поняття персональних даних, комерційної таємниці та загалом тієї інформації, яку не можна передавати додатку.


Читай нас в Google News | Telegram | Facebook | Twitter


Back to top button