Более 10 млн россиян рискуют раскрыть личные данные поддельным нейросетям

от admin

Многие пользуются ими в отсутствие доступа к официальным платформам

MTS AI: 10 млн россиян рискуют раскрыть личные данные поддельным нейросетям

«РИА Новости»: 10 млн россиян рискуют слить личные данные поддельным нейросетям

Более 10 млн россиян рискуют раскрыть конфиденциальные данные из-за использования поддельных иностранных нейросетей. Об этом в комментарии «РИА Новости» рассказал директор по LLM-продуктам MTS AI Сергей Пономаренко.

В настоящее время напрямую воспользоваться многими популярными иностранными нейросетями с территории России невозможно. Например, компания OpenAI (владелец ChatGPT и Dall-E) ограничила доступ для россиян. Нередко возникают и трудности с оплатой иностранных сервисов.

Ситуацией пользуются мошенники. Они создают чат-боты и сайты, где обещают предоставить «упрощенный» доступ к системе. Однако вместо оригинальных моделей пользователи получают минимальную версию продукта, которая по качеству значительно уступает флагману или другими моделями.

«Пользователи, которые используют ChatGPT, Dall-E, Midjourney и другие иностранные большие языковые модели (LLM) через сторонние сервисы, рискуют не только вместо оригинала получить открытую модель низкого качества, но и раскрыть свои конфиденциальные данные. Компания считает, что таких людей в России более 10 млн», — заявил Пономаренко.

Читать:
Новая ИИ-модель обучится генерировать фильмы по «Джону Уику» и «Сумеркам»

По словам эксперта, соблюдать цифровую грамотность нужно при использовании любой нейросети. В частности, подобным сервисам нельзя предоставлять персональные данные и конфиденциальную информацию, содержащую коммерческую тайну.

«Для работы с корпоративными данными следует использовать только те чат-боты и сервисы, которые одобрены руководством и установлены в контуре вашей организации», — напомнил эксперт.

Похожие публикации