Норвежец спросил ChatGPT о себе, а в ответ получил шокирующую клевету

от admin

. Нейросеть заявила, что мужчина якобы убил своих детей

Норвежец с правозащитниками пожаловался на выдуманную биографию от ChatGPT

Пользователь из Норвегии обнаружил, что ChatGPT распространяет ложную информацию о нем. Правозащитники подали жалобу на компанию OpenAI за нарушение норм защиты персональных данных. Жалоба опубликована на сайте некоммерческой организации Noyb.

Арве Ялмар Хольмен решил узнать, есть ли у ChatGPT какая-нибудь информация о нем. В ответ нейросеть выдала шокирующий ответ о том, что норвежец якобы убил двоих своих детей, пытался убить третьего и был осужден на 21 год. Никаких преступлений Хольмен не совершал, однако в описанной истории совпадали некоторые реальные факты о мужчине: количество детей, их пол и место жительства.

Правозащитная организация Noyb подала жалобу в норвежский надзорный орган Datatilsynet. Активисты утверждают, что OpenAI нарушил нормы защиты персональных данных, так как пользователь не может исправить ошибочную информацию.

«Фальшивые обвинения могут разрушить жизни людей, а отсутствие механизма исправления данных — это серьезное нарушение», — заявила юрист Noyb Клеанти Сардели.

Как сообщает портал Ars Technica, после жалобы OpenAI устранила ошибку, но неясно, были ли окончательно удалены исходные данные.

Читать:
Чат-бот Gemini от Google пожелал смерти пользователю. Как это вышло

«Теперь ChatGPT при запросе о человеке ищет информацию в интернете. Для Арве Ялмара Хольмена это стало хорошей новостью — ChatGPT больше не утверждает, что он убийца. Однако в наборе данных модели все еще могут сохраняться неверные сведения. По умолчанию ChatGPT использует пользовательские данные для обучения, поэтому невозможно гарантировать их полное удаление без полного переобучения модели», — говорится в заявлении Noyb.

Это не первый случай, когда ChatGPT распространяет ложные сведения. Ранее австралийский гражданин грозился подать в суд на OpenAI — ChatGPT тогда заявил, что мужчина якобы отсидел в тюрьме. В 2024 году OpenAI штрафовали на $16 млн в Италии за утечку данных пользователей. Тогда компании пришлось изменить работу ChatGPT, внедрив инструмент для исправления ошибок. Если норвежские надзорные органы придут к аналогичным выводам, компания OpenAI будет вынуждена вновь пересмотреть свои алгоритмы.

Правозащитники требуют, чтобы OpenAI не просто скрывала ложную информацию, а полностью удаляла ее из системы. Более того, они настаивают на введении штрафов и разработке механизмов исправления данных, чтобы избежать подобных случаев в будущем.

Похожие публикации