. Нейросеть заявила, что мужчина якобы убил своих детей
Норвежец с правозащитниками пожаловался на выдуманную биографию от ChatGPT
Пользователь из Норвегии обнаружил, что ChatGPT распространяет ложную информацию о нем. Правозащитники подали жалобу на компанию OpenAI за нарушение норм защиты персональных данных. Жалоба опубликована на сайте некоммерческой организации Noyb.
Арве Ялмар Хольмен решил узнать, есть ли у ChatGPT какая-нибудь информация о нем. В ответ нейросеть выдала шокирующий ответ о том, что норвежец якобы убил двоих своих детей, пытался убить третьего и был осужден на 21 год. Никаких преступлений Хольмен не совершал, однако в описанной истории совпадали некоторые реальные факты о мужчине: количество детей, их пол и место жительства.
Правозащитная организация Noyb подала жалобу в норвежский надзорный орган Datatilsynet. Активисты утверждают, что OpenAI нарушил нормы защиты персональных данных, так как пользователь не может исправить ошибочную информацию.
«Фальшивые обвинения могут разрушить жизни людей, а отсутствие механизма исправления данных — это серьезное нарушение», — заявила юрист Noyb Клеанти Сардели.
Как сообщает портал Ars Technica, после жалобы OpenAI устранила ошибку, но неясно, были ли окончательно удалены исходные данные.
«Теперь ChatGPT при запросе о человеке ищет информацию в интернете. Для Арве Ялмара Хольмена это стало хорошей новостью — ChatGPT больше не утверждает, что он убийца. Однако в наборе данных модели все еще могут сохраняться неверные сведения. По умолчанию ChatGPT использует пользовательские данные для обучения, поэтому невозможно гарантировать их полное удаление без полного переобучения модели», — говорится в заявлении Noyb.
Это не первый случай, когда ChatGPT распространяет ложные сведения. Ранее австралийский гражданин грозился подать в суд на OpenAI — ChatGPT тогда заявил, что мужчина якобы отсидел в тюрьме. В 2024 году OpenAI штрафовали на $16 млн в Италии за утечку данных пользователей. Тогда компании пришлось изменить работу ChatGPT, внедрив инструмент для исправления ошибок. Если норвежские надзорные органы придут к аналогичным выводам, компания OpenAI будет вынуждена вновь пересмотреть свои алгоритмы.
Правозащитники требуют, чтобы OpenAI не просто скрывала ложную информацию, а полностью удаляла ее из системы. Более того, они настаивают на введении штрафов и разработке механизмов исправления данных, чтобы избежать подобных случаев в будущем.