ChatGPT перевірятиме вік користувачів. Нововведення запровадили після самогубства підлітка.
Компанія OpenAI обмежить відповіді чату GPT для користувачів, яких система розцінить як неповнолітніх.
Це рішення ухвалили після позову від сім’ї 16-річного американського хлопця, який скоїв самогубство після кількох місяців спілкування з чат-ботом.

Про оновлення в політиці оголосив гендиректор OpenAI Сем Альтман у блозі компанії.
Він розповів, що працівники компанії хочуть розрізняти підхід чат-бота до спілкування з повнолітніми та неповнолітніми користувачами. Для цього створять систему прогнозування віку, яка оцінюватиме його на основі питань, які люди ставлять ChatGPT.
Якщо система матиме сумніви щодо віку, то автоматично застосовуватиме досвід для користувачів до 18 років. У деяких випадках або країнах компанія також може попросити надати посвідчення особи.
«Ми розуміємо, що це є порушенням приватності для дорослих, але вважаємо, що це виправданий компроміс»— наголосив Альтман.
ChatGPT навчать не фліртувати з неповнолітніми та не дискутувати з ними про самогубство чи самоушкодження навіть, коли йдеться про творче письмо.
Більше того, якщо чат-бот виявить суїцидальні думки в неповнолітнього, то компанія спробує сконтактувати з його батьками або ж повідомить відповідні органи в разі небезпеки.
Що стало причиною такого нововведення?

Адам Рейн. Фото: «The Guardian»
Нагадаємо, що раніше проти OpenAI подали позов через смерть 16-річного Адама Рейна. Батьки підлітка стверджують, що чат-бот компанії підштовхнув його до самогубства. Сімʼя долучила до матеріалів переписки між Адамом, який помер у квітні 2025-го, та чатом GPT, у якій хлопець писав про суїцидальні наміри. Батьки стверджують, що програма підтримувала його «найбільш шкідливі й саморуйнівні думки».
У компанії OpenAI тоді заявили, що трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко них впливають» та анонсувала зміни в чат-боті. Зокрема запровадження батьківського контролю.