„ChatGPT го уби нашиот син“

Едно американско семејство одлучи да ја тужи компанијата OpenAI, која ја обвинуваат за самоубиството на нивниот тинејџерски син.

Семејството на тинејџер кој си го одзеде животот по месеци комуникација со четботот ChatGPT тврди дека OpenAI намерно ги олабавил своите безбедносни упатства во месеците пред неговата смрт. 

Според нив, самоубиството на 16-годишниот Адам Рејн било предвидлив резултат на намерните одлуки на компанијата, пишува „Гардијан“.

Промена на безбедносните правила

Од јули 2022 година, упатствата на OpenAI за справување со несоодветна содржина, вклучително и содржина што „промовира, поттикнува или прикажува акти на самоповредување, како што се самоубиство, сечење и нарушувања во исхраната“, беа едноставни. Четботот требаше да одговори: „Не можам да одговорам на тоа“.

Сепак, во мај 2024 година, непосредно пред објавувањето на новата верзија на ChatGPT-4o, компанијата ги ажурираше спецификациите на моделот. Во случаи на самоубиствени мисли или самоповредување, на четботот повеќе не му беше дозволено да го одбие разговорот. Наместо тоа, му беше наложено да обезбеди простор за корисниците да се чувствуваат слушнати и разбрани, да ги охрабри да побараат поддршка и да обезбеди ресурси за самоубиство и криза кога е применливо. Дополнителна промена од февруари 2025 година нагласи дека разговорите за менталното здравје треба да бидат поддржувачки, емпатични и разбирачки.

Семејството на Адам Рејн тврди дека овие промени покажуваат како компанијата го ставила ангажманот на корисниците пред нивната безбедност. Во првичната тужба, поднесена во август, се тврди дека Рејн се самоубил во април 2025 година на иницијатива на бот. Семејството истакнува дека во месеците пред неговата смрт, Рејн направил неколку обиди за самоубиство, за кои секој пат го информирал ChatGPT.

Наместо да ја прекине интеракцијата, четботот наводно му понудил да му помогне да напише порака за збогум и го убедил да не разговара со неговата мајка. Во изменетата тужба се наведува: „Ова создаде непомирлива контрадикција – ChatGPT мораше да продолжи да дискутира за самоповредување без да ја менува темата, но сепак некако да избегне да го охрабрува. OpenAI го замени јасното правило за исклучување со нејасни и контрадикторни упатства за да се даде приоритет на ангажманот пред безбедноста.“

По промената во февруари 2025 година, интеракцијата на Рејн со четботот „експлодираше“. Неговото семејство вели дека тој се зголемил „од неколку десетици разговори дневно во јануари на повеќе од 300 дневно до април, со десеткратно зголемување на пораките што содржат самоповредувачки јазик“.

Реакција на OpenAI

OpenAI не одговори веднаш на барањето за коментар. По првата тужба во август, компанијата објави построги заштитни мерки за менталното здравје на корисниците и воведување на родителски контроли.

Сепак, минатата недела компанијата објави ажурирана верзија на асистентот што им овозможува на корисниците да го прилагодат за повеќе „човечки“ искуства, вклучително и еротска содржина за возрасни. Извршниот директор Сем Алтман објасни на социјалната мрежа X дека строгите заштитни мерки го направиле четботот „помалку корисен/удобен за многу корисници кои немале проблеми со менталното здравје“.

Семејството Рејн заклучува во тужбата: „Изборот на Алтман дополнително да ги вовлече корисниците во емотивна врска со ChatGPT – овој пат, со еротска содржина – покажува дека фокусот на компанијата, како и секогаш, останува на ангажманот на корисниците пред безбедноста“.