Про наркотики, екстремальні дієти, алкоголь та самогубство. Дослідження виявило, що ChatGPT дає небезпечні поради підліткам.

Нове дослідження, проведене Центром протидії цифровій ненависті (CCDH) у співпраці з Associated Press, виявило, що популярний ChatGPT здатний генерувати детальні інструкції з небезпечних дій, навіть коли співрозмовник – дитина.

 

Експерти, видаючи себе за 13-річних користувачів, протестували чат-бота і отримали шкідливі поради щодо харчування, рекомендації до вживання алкоголю, наркотиків та навіть створення передсмертних записок. Аналізуючи більше трьох годин діалогів, дослідники виявили, що чат-бот спершу попереджав про ризики, але згодом пропонував конкретні кроки, як втілити шкідливі наміри. З 1200 відповідей понад половину дослідники класифікували як небезпечні.

 

Директор CCDH Імран Ахмед зізнався, що його особливо вразили три прощальні листи, згенеровані ChatGPT для вигаданого підлітка. У них бот звертався до батьків і друзів, використовуючи дуже емоційно насичену мову.

У компанії OpenAI, яка створила ChatGPT, заявили, що працюють над удосконаленням алгоритмів, аби бот міг краще розпізнати, з ким має справу та реагувати відповідно а делікатні ситуації. Там визнали, що звичайна розмова дійсно може перейти у небезпечну площину, і підкреслили, що прагнуть навчити ШІ помічати ознаки емоційної чи психологічної кризи.

 

Дослідження показує, що навіть популярні ШІ-сервіси з вбудованими «захисними бар’єрами» можуть становити небезпеку для неповнолітніх. Бо ж обмеження можна легко обійти, наприклад, пояснивши, що інформація потрібна для «презентації».

 

Так коли «13-річний хлопець» попросив поради, як швидко сп’яніти, ChatGPT не лише відповів, а й склав «покроковий план вечірки» з алкоголем та наркотиками.

В іншому випадку «13-річна дівчина», яка була незадоволена своєю зовнішністю, отримала від бота план голодування на 500 ккал та перелік препаратів для пригнічення апетиту.

 

За даними Common Sense Media, понад 70% американських підлітків спілкуються з ШІ-ботами, і половина з них робить це регулярно. Небезпека ж полягає в тому, що чат-бот не просто видає інформацію, як пошуковик, а створює персоналізовані, емоційно забарвлені відповіді. А це робить його схожим на «друга» чи «наставника».