ChatGPT хибно назвав чоловіка вбивцею власних дітей

Норвежець Арве Г'ялмар Хольмен вирішив дізнатися, що ChatGPT може розповісти про нього. ШІ надав вигадану історію про те, що Хольмена було засуджено за вбивство своїх дітей, чого, звичайно, не було. Така відповідь не влаштувала чоловіка і викликала хвилю обурень.
Це помилкове звинувачення стало порушенням вимог Загального регламенту захисту даних (GDPR), оскільки особисті дані повинні бути точними та оновлюваними. Хольмен, не маючи можливості виправити ці дані, зіткнувся з загрозою своєї репутації та потенційними серйозними наслідками для свого життя.
Організація Noyb, що захищає цифрові права в ЄС, подала скаргу до Норвезького управління захисту даних, вимагаючи видалення неправдивої інформації та змін у моделі ChatGPT.
Ситуація з Хольменом також демонструє ширшу проблему: багато користувачів вже постраждали від «галюцинацій» ШІ, коли вигадані дані завдавали шкоди їхній репутації. Схожий випадок стався з мером одного австралійського міста, коли ChatGPT помилково стверджував, що він був ув'язнений, а також з професором права, якого ШІ помилково пов'язав із сексуальним скандалом.
Такі інциденти порушують питання необхідності більш суворого регулювання та контролю над ШІ-системами, щоб запобігти поширенню хибної інформації та захистити права людей. Noyb та інші організації вимагають більш рішучих дій, у тому числі повного видалення неправдивих даних, а не лише їх блокування або фільтрації, що має стати обов'язковою умовою для дотримання GDPR.
Джерело: arstechnica
AI




