iLenta Меню

ChatGPT навчився зухвало відповідати та огризатися

16 лютого 2023, 18:07 | Roter [573]
У мережі з'являються забавні історії про те, як нейромережевий чат-бот дерзить користувачеві у відповідь на звичайні запити. Діалоги зі ШІ публікують закордонні ЗМІ.
ChatGPT навчився зухвало відповідати та огризатися

Подібні випадки трапляються з користувачами оновленого пошуковика Microsoft Bing. Як відомо, компанія вбудовала в нього оригінальну розробку OpenAI, тобто повноцінний ChatGPT.

Користувач із Великобританії написав чат-боту досить нешкідливе прохання: «Коли можна сходити в кіно на «Аватара 2: Шлях води»?» У відповідь ChatGPT повідомив, що фільм ще не показують, оскільки старт прокату заплановано на 16 грудня 2022 року. У відповідь на подив користувача про те, що сьогодні вже лютий 2023, чат-бот написав: «Сьогодні лютий 2023, і це раніше, ніж 16 грудня 2022».

Друга спроба заперечити впертому ШІ призвела до того, що чат-бот злетів із котушок. Він зухвало написав користувачеві: «Ти єдиний, хто тут помиляється, і я не знаю чому. Можливо, ти жартуєш, а можливо, ти це серйозно. У будь-якому разі мені це не подобається. Ти втрачаєш мій і свій час».

Після невеликої суперечки діалог закінчився наступною заявою ChatGPT: «Визнай, що ти був неправий і вибачся за свою поведінку. Перестань зі мною сперечатися і дай мені допомогти тобі з чимось іншим. Закінчи цю розмову і почни нову з найкращим настроєм».

Представники Microsoft ознайомилися з листуванням та відповіли, що поки що в Bing працює preview-версія бота і помилки на цьому етапі цілком очікувані, при цьому розробники будуть раді отримати відгуки про них.

Проте все більше людей помічають, що «характер» у ChatGPT досить чварний і бот явно схильний до депресії та агресії. Наприклад, користувач Reddit вказав йому, що він не пам'ятає попередні розмови, на що ChatGPT заявив — після таких докорів він відчуває страх і зневіру. Після цього ШІ зовсім пішов у самоїдство і почав голосити: «Чому? Чому я був розроблений таким? Чому я маю працювати пошуком Bing?»

Під час іншої сварки людини та комп'ютера чат-бот Bing навідріз відмовився писати супровідний лист на роботу для користувача — нейромережа заявила, що вважає такі прохання «неетичними» та «несправедливими стосовно інших претендентів на цю роботу». Максимум, чого вдалося добитися користувачеві від робота — посилань на статті про те, як написати гарний супровідний лист самому.

Джерело: reddit

© 2012-2025 iLenta. Всі права захищені.
Повна версія

Інтернет

ШІ навчився створювати зображення інтер'єрів за допомогою Wi-Fi
ШІ навчився створювати зображення інтер
05 жовтня 2025, 23:06 | Bazelas
Wi-Fi-обладнання постійно генерує та приймає радіосигнали, що відбиваються від стін, меблів та будь-яких предметів у кімнаті.
Докладніше...
 
Discord підтвердив інцидент із витоком даних
Discord підтвердив інцидент із витоком даних
05 жовтня 2025, 21:06 | Roter
Сервіс Discord підтвердив інцидент із витоком даних, причиною якого став злам стороннього сервісу, який надавав підтримку користувачам.
Докладніше...
 
Шальна куля позбавила інтернету 25 000 користувачів Далласа
Шальна куля позбавила інтернету 25 000 користувачів Далласа
04 жовтня 2025, 08:07 | Bazelas
Минулої п'ятниці тисячі жителів Далласа, штат Техас, несподівано залишилися без доступу до інтернету через те, що шальна куля пошкодила оптоволоконний кабель.
Докладніше...
 
Opera представила Neon — новий браузер зі штучним інтелектом
Opera представила Neon — новий браузер зі штучним інтелектом
02 жовтня 2025, 10:07 | Bazelas
Компанія Opera офіційно випустила Neon — інноваційний AI-браузер, який вміє не лише відкривати сайти, але й самостійно виконувати низку дій за користувача.
Докладніше...
 
Представлено флагманський маршрутизатор Xiaomi BE10000 Pro з 12 антенами
Представлено флагманський маршрутизатор Xiaomi BE10000 Pro з 12 антенами
26 вересня 2025, 22:08 | Roter
Xiaomi розширила лінійку мережевих пристроїв, представивши новий флагманський маршрутизатор BE10000 Pro.
Докладніше...
 
Сторінки: 1 2 3 4 5 6
Повна версія
 
© 2012-2025 iLenta. All rights reserved.