
Штучний інтелект ChatGPT від OpenAI став частиною повсякденної рутини мільйонів користувачів: щодня в чат надсилається понад мільярд запитів.
Але на тлі цього успіху посилюються побоювання з приводу приватності. ChatGPT уже отримував заборону в Італії, і небезпідставно - все, що ви вводите в чат, може бути використане для навчання, переглянуте людьми або навіть випадково показане іншим користувачам.
OpenAI чесно попереджає: ваша інформація буде використана для машинного навчання. Тож розумно сприймати все, що ви відправляєте в чат, як потенційно публічну інформацію. Тому Forbes назвав 5 речей, про які не варто розповідати ChatGPT.
Незаконні та неетичні запити
Просити АІ розповісти, як зламати банкомат, вкрасти пароль у сусіда або маніпулювати кимось - це не просто аморально, а й може мати наслідки. Більшість АІ-сервісів відстежують подібні дії і, в разі серйозних порушень, можуть передавати дані в правоохоронні органи.
Наприклад, у Великій Британії та ЄС заборонено використовувати ChatGPT для отримання інформації про створення DeepFake відео зі справжніми людьми.
Логіни та паролі
ChatGPT не створений для того, щоб ви йому розповідали, як увійти у ваш банківський акаунт. Навіть якщо ШІ підключений до сторонніх сервісів - не вводьте паролі. В історії вже були випадки, коли особиста інформація одного користувача несподівано спливала у відповідях іншим.
Фінансова інформація
Той самий принцип поширюється і на ваші банківські дані. Ні номери карток, ні CVC, ні номери рахунків або документи, нічого з цього не варто довіряти чат-боту.
На відміну від платіжних платформ, у ChatGPT немає шифрування, двофакторного захисту або гарантії видалення даних після обробки. Уся ця інформація може бути вразливою для злому, фішингу або витоків.
Конфіденційні документи
Робочі звіти, клієнтські бази, комерційні пропозиції і, особливо, внутрішні документи компаній - усе це має залишатися поза публічним ШІ. Приклад Samsung, де співробітники завантажили в ChatGPT конфіденційні матеріали.
Медична інформація
Навіть якщо ви просто хочете уточнити симптоми, пам'ятайте: у ШІ немає медичної освіти, зате є здатність запам'ятовувати, агрегувати й обробляти інформацію з різних чатів. А отже, ваші записи можуть потім спливти в іншому контексті.
Для бізнесу, що працює з медичними даними, це може закінчитися штрафами за порушення законів про конфіденційність. А для звичайних користувачів - просто втратою особистих кордонів.
Висновки
ШІ не сховище, а мегафон. Усе, що ви ввели, теоретично може спливти. Тому найкраще правило безпеки: не вводьте нічого, що не готові опублікувати на головній сторінці інтернету.
Технології ШІ розвиваються швидше, ніж юридична база і система захисту. Поки не з'явився реальний контроль, уся відповідальність - на нас самих.
Раніше дослідження творців ChatGPT з OpenAI виявили, що спілкування зі штучним інтелектом підвищує рівень самотності. Для проведення досліджень вчені спостерігали за майже тисячею людей протягом місяця.