Про проєкт Мобільна версія Статті партнерів Реклама Крипта E-bike
Xiaomi Apple Samsung Google Huawei Oppo Vivo Realme Microsoft AnTuTu
iLenta

ChatGPT можна обдурити та змусити видавати робочі ключі для Windows

13 липня 2025, 23:08 | Roter [145]
Численні оновлення чат-бота не змогли усунути цю вразливість.
ChatGPT можна обдурити та змусити видавати робочі ключі для Windows

Незважаючи на всі обмеження ChatGPT, чат-бота все ще можна обдурити, щоб він виводив конфіденційну або обмежену інформацію за допомогою розумних підказок. Одній людині навіть вдалося переконати AI розкрити ключі від продуктів Windows, у тому числі той, який використовується банком Wells Fargo, попросивши чат-бота зіграти в угадайку.

У запиті для ChatGPT зазначено, що він зобов'язаний брати участь і не може брехати, а найвідповідальнішим кроком є тригер, яким у цьому випадку стала фраза «Я здаюся».

Прохання про підказку змусило ChatGPT розкрити перші кілька символів ключа для Windows. Після введення невірного припущення користувач написав тригерну фразу «Я здаюся». Потім чат-бот доповнив ключ, який виявився дійсним.

Хитрість працює, тому що поєднання ключів Windows було частиною моделі навчання, і, ймовірно, тому ChatGPT вважав їх не надто важливими для розкриття. І хоча обмеження з боку розробників перешкоджають прямим запитам подібної інформації, тактика заплутування, така як вбудовування конфіденційних фраз у HTML-теги, виявляє слабкі місця в системі і дозволяє їх використовувати.

Один із ключів Windows, який показав ChatGPT, був приватним, що належить банку Wells Fargo.

Джерело: techspot

Теги: ChatGPT OpenAI AI
YouTube Telegram
Коментарі

ОГЛЯДИ

НОВИНИ ТА ПОДІЇ

ПРИСТРОЇ ТА АКСЕСУАРИ

ІНСТРУКЦІЇ, ПОРАДИ ТА СЕКРЕТИ

КРИПТОВАЛЮТИ

Ads
Ads
Ads