Нейросеть DeepSeek: что умеет, как пользоваться, отличия от ChatGPT

от admin

Оглавление

  • Что такое DeepSeek
  • Что умеет DeepSeek
  • Как воспользоваться DeepSeek в России
  • Применение DeepSeek
  • Сравнение DeepSeek и ChatGPT
  • Перспективы развития DeepSeek
  • Мнение эксперта

20 января 2025 года китайская компания DeepSeek выпустила модели DeepSeek R1-Zero и DeepSeek R1. Нейросеть DeepSeek основана на базе большой языковой модели с открытым исходным кодом и доступна на русском языке. Описание новой нейронки DeepSeek AI, что это и как ей пользоваться на официальном сайте или через приложение, возможности применения и отличия от ChatGPT, перспективы развития, мнение экспертов – в материале РИА Новости.

Что такое DeepSeek

DeepSeek – китайская компания, которая специализируется на разработке искусственного интеллекта и создании открытых больших языковых моделей (LLM). Основанная в 2023 году Лян Вэньфэном, компания базируется в Ханчжоу и финансируется хедж-фондом High-Flyer.

«В январе 2025 года DeepSeek представила свою флагманскую модель DeepSeek-R1, которая по возможностям сопоставима с передовыми разработками, такими как GPT-4o и o1 от OpenAI. Однако её обучение обошлось значительно дешевле – около 6 миллионов долларов, что в разы ниже затрат на GPT-4, разработка которой в 2023 году потребовала 100 миллионов долларов», – комментирует Кирилл Пшинник, сооснователь и CEO онлайн-университета Zerocoder.

Владимир Валеев, ведущий CV/AI-инженер Softline Digital (ГК Softline) поясняет, что китайцы сделали модель DeepSeek R1 на чипах H800, которые соответствуют требованиям экспортного контроля в рамках программы сдерживания технологического развития Китая.

«Разработчики DeepSeek R1 заявляют, что отказались от курирования датасета на этапе выравнивания модели. Они исключили из этого процесса этап SFT (supervised fine-tuning) для версии R1-Zero полностью, а для версии R1 заменили его на подготовленные примеры промежуточных шагов-размышлений, которые должны построить модель, прежде чем дать финальный ответ на запрос. Вместо этапа обучения с подкреплением на обратной связи от асессора использовали «чистые» методы с подкреплением, позволив тем самым модели самой учиться рассуждать вместо того, чтобы использовать обратную связь от человека. Такой подход значительно сократил объем ручного труда при создании модели», – уточняет специалист.

Что умеет DeepSeek

Как и решения OpenAI, DeepSeek-R1 универсальна для работы с текстами. Модель способна генерировать контент любой сложности – от художественных произведений до бизнес-планов и аналитических прогнозов. Она поддерживает десятки языков, точно переводит и понимает текст в различных форматах.

Кирилл Пшинник отмечает, что современные нейросети 2024-2025 годов больше не требуют навыков промпт-инженерии – они хорошо интерпретируют запросы, даже если те сформулированы нечетко, например, ребенком.

DeepSeek-R1 отлично подходит для решения сложных инженерных, математических и научных задач. В тестах по профильному ЕГЭ-2024 по математике модель продемонстрировала высокую эффективность: сложнейшую задачу из демоверсии она решила за две минуты, в то время как GPT o1 от OpenAI потребовалось 8 минут.

Модель также обладает продвинутыми навыками программирования, поддерживает все популярные языки кодирования и умеет вести аргументированные рассуждения.

Как воспользоваться DeepSeek в России

В отличие от американских аналогов, чат-бот DeepSeek доступен на территории России, но в настоящее время регистрация новых пользователей приостановлена, так как сервисы подверглись масштабным вредоносным атакам. Зарегистрированные ранее могут зайти в обычном режиме. Приложение DeepSeek можно скачать на телефон (Apple Ap Store, Google Play) или работать с ней через web, как с обычным сайтом.

Как только регистрация будет возобновлена, для работы с ботом необходимо будет:

  1. 1.Перейти на сайт chat.deepseek.com и нажать Sign Up или Log In with Google.
  2. 2.Зарегистрироваться – процесс занимает не более минуты.
  3. 3.Начать диалог с нейросетью.

«Использование DeepSeek-R1 не отличается от взаимодействия с другими чат-ботами, например, GigaChat от Сбера. Пользователи могут задавать вопросы, получать ответы и уточнять детали в ходе диалога – модель будет поддерживать беседу, «помня» всю информацию внутри текущего чата», – поясняет Кирилл Пшинник.

Нейросеть DeepSeek: что умеет, как пользоваться, отличия от ChatGPT

Приложение DeepSeek

Чат-бот предлагает три режима взаимодействия:

Базовый – стандартный режим чат-бота, аналогичный ChatGPT-4o или GigaChat, в котором нейросеть отвечает на вопросы пользователей.

DeepThink (R1) – глубокая проработка запроса. В этом режиме модель анализирует вопрос с разных сторон, проверяет правильность рассуждений и только затем формулирует ответ. Этот формат предназначен для решения сложных, нетривиальных задач. Пользователи могут задавать вопросы, на которые заранее не знают ответа, а также следить за логикой работы нейросети.

Search (поиск) – модель выполняет поиск информации в интернете и формирует ответ на основе актуальных данных.

Режимы можно комбинировать.

Применение DeepSeek

«Одной из ключевых особенностей DeepSeek-R1 является открытый исходный код (Open Source). Это позволяет скачивать и развертывать модель на собственных серверах, обеспечивая защиту данных внутри корпоративного контура. Ранее у российского бизнеса не было возможности легально использовать столь мощную языковую модель», – говорит Кирилл Пшинник.

По мнению эксперта, DeepSeek-R1 считают прорывной моделью:

Во-первых, она демонстрирует выдающиеся результаты в решении сложных задач, особенно в математике и программировании, что ставит её в один ряд с передовыми моделями, такими как o1 от OpenAI.

Во-вторых, DeepSeek-R1 была обучена исключительно с подкреплением (RL), без традиционного этапа работы с учителем (SFT). Такой подход позволил модели самостоятельно развить навыки логического рассуждения и решения задач, что существенно сократило как время, так и затраты на обучение.

Наконец, компания сделала модель открытой и доступной для исследовательского сообщества, что способствует повышению прозрачности и дальнейшему развитию технологий искусственного интеллекта.

Сравнение DeepSeek и ChatGPT

По мнению Владимира Валеева, российские аналоги ChatGPT – YandexGPT и GigaChat – по качеству ответов, конечно, уступают ChatGPT от OpenAI и другим моделям зарубежных бигтех компаний. DeepSeek выложила в открытый доступ статью, в которой описана методика обучения их моделей, и этим непременно воспользуются команды исследователей российских технологических компаний. Поэтому ожидаемо, что качество их моделей возрастет.

Нейросеть DeepSeek: что умеет, как пользоваться, отличия от ChatGPT

Приложение DeepSeek и ChatGPT

«Важную роль играет сложность русского языка, ведь российские модели ориентированы в первую очередь на русский язык, а он флективный и обладает сильной морфологией в отличие от английского. Кроме этого, российским разработчикам доступно меньше качественных данных, подходящих для обучения моделей на русском языке, чем зарубежным специалистам, работающим на английском, – говорит эксперт.

Читать:
Фейсконтроль для Буренок. Ученые обучили нейросеть распознавать морды коров

Кирилл Пшинник считает, что с точки зрения формальных показателей, DeepSeek-R1 не уступает, а в некоторых тестах даже превосходит o1 от OpenAI – одну из самых передовых доступных моделей.

«Субъективно DeepSeek работает быстрее и выдает более точные ответы. Однако важно учитывать, что ChatGPT – это не просто языковая модель, а целая экосистема сервисов, встроенных в нейросеть», – говорит Кирилл Пшинник.

Например, DeepSeek-R1 не поддерживает:

  • генерацию изображений;
  • запуск Python-кода внутри чата для вычислений;
  • режим «холаста» (разговорного собеседника);
  • создание автоматизированных агентов по аналогии с GPTs.

Также остаются вопросы по масштабируемости. Эксперт поясняет, что после публикации о модели в федеральных СМИ серверы DeepSeek испытывали перегрузки, что приводило к сбоям в работе чат-бота. В то же время ChatGPT стабильно обслуживает более 300 миллионов активных пользователей в неделю.

Андрей Малафеев, специалист RAMAX Group, отметил разницу между этими решениями:

  1. 1.Гибкий подход к точности вычислений. Вместо того чтобы использовать избыточные вычисления (32 знака после запятой), DeepSeek показали, что достаточно 8 знаков. В результате используется на 75% меньше памяти.
  2. 2.Использование мультитокенов. Система DeepSeek обрабатывает целые фразы в отличие от последовательной обработки слов в предложении. Поэтому она работает в два раза быстрее при этом обеспечивает точность 90%.
  3. 3.Подключаемые параметры. Вместо одного всеобъемлющего ИИ, который пытается знать всё на свете (иначе говоря, ChatGPT одновременно и врач, и юрист, и инженер, и программист), DeepSeek работает как система с настраиваемой специализацией. В ChatGPT всегда активны 1,8 триллиона параметров. А в DeepSeek – 671 миллиард, при этом только 37 миллиардов задействованы в каждый конкретный момент времени.

«Среди плюсов DeepSeek можно выделить минималистичный и интуитивно понятный интерфейс, хорошее понимание контекста диалога, способность генерировать программный код, быструю реакцию на запросы, постоянные улучшения и обновления, а также избегание неэтичных ответов и обеспечение конфиденциальности данных. Однако у DeepSeek есть и минусы: ограниченное количество функций (нет голосового ассистента и генерации изображений) и возможные задержки в ответах из-за высокой нагрузки», – дополняет Петр Щербаченко, доцент Финансового университета при Правительстве РФ.

Перспективы развития DeepSeek

Компания показала, что можно сделать дешевле стоимость обучения моделей ИИ, использовать меньше дорогостоящего и производительного оборудования. «Решение DeepSeek открыто для всех –open source. Я думаю, перспективы его развития связаны именно с этим: любой профессионал может проверить, улучшить и использовать эти инновации. Это не просто технологический прогресс – это демократизация ИИ в беспрецедентных масштабах. Значит, разработку ИИ могут вести не только техногиганты, но и университетские команды или энтузиасты», – комментирует Андрей Малафеев.

Кирилл Пшинник отмечает, что мобильное приложение DeepSeek стало самым скачиваемым в США, что привело к существенным изменениям на фондовом рынке и поставило под сомнение доминирующее положение американских компаний в сфере искусственного интеллекта.

«Компания NVIDIA – крупнейший производитель GPU-чипов для обучения ИИ – за один день потеряла 600 миллиардов долларов капитализации. Это стало крупнейшим однодневным падением в истории фирмы. Такие события свидетельствуют о том, что инвесторы серьезно оценивают влияние новой китайской нейросети на весь рынок искусственного интеллекта, – говорит эксперт. – Генеральный директор AT&T Джон Стэнки сравнил это с зарождением интернета, отметив, что новые ИИ-модели могут привести к появлению прорывных приложений и бизнес-моделей».

Таким образом, DeepSeek не только укрепляет позиции Китая в сфере ИИ, но и усиливает глобальную конкуренцию, способствуя развитию более доступных и эффективных технологий.

DeepSeek, который вызвал сначала недюжинный ажиотаж, стал попадать под запрет:

В Италии, Тайване (для правительственных учреждений) его запретили из-за рисков безопасности. Ряд запретов ввели и для ведомств США: пользоваться чат-ботом нельзя сотрудникам аппарата конгресса, Пентагона, ВМС.

Призывают граждан к осторожности в Австралии, Великобритании и Ирландии.

Мнение эксперта

Кирилл Пшинник отмечает, что DeepSeek вызвал значительный интерес в сфере искусственного интеллекта благодаря эффективности и открытому коду. Для российских пользователей это уникальная возможность воспользоваться передовой моделью бесплатно. Более того, в ближайшие месяцы можно ожидать массового внедрения DeepSeek-R1 в крупный бизнес, особенно в формате Open Source. Появление нового сильного игрока разрушает монополию американских компаний и дает надежду на более открытую и демократичную экосистему ИИ.

Нейросеть DeepSeek: что умеет, как пользоваться, отличия от ChatGPT

Приложение DeepSeek

По словам Павла Новикова, управляющего директора Центра экспертизы и коммерциализации в секторе информационных и финансовых технологий Фонда «Сколково» (Группа ВЭБ.РФ) есть две вероятные гипотезы успеха:

Первая – многофакторная комбинация. Китайская математическая школа дает свои плоды, сотни ИИ-команд одновременно тестирующих разные подходы и алгоритмы обучения моделей и, возможно, главное – сильнейшая мотивация ученых, лежащая не в коммерческой, а в идеологической цели – способны сделать продукт лучше, чем в США.

Вторая – коллеги из Китая не все могут или хотят рассказывать про реальную мощность вычислительного кластера или использование предобученных моделей. Похоже, что виртуального барьера в размере вычислительного кластера

действительно нет, однако в России нет сотен ИИ-команд. Также, стоит учитывать ограничения в мощностях – общая производительность всех суперкомпьютеров в России не превышает 100 петафлопс, в то время как в мире уже есть два, преодолевших экзафлопс.

Несмотря на то, что количество групп исследователей и вычислительная мощность не в нашу пользу, стоит отметить, что, по мнению наших резидентов в определенных прикладных задачах, российские модели GigaChat и YandexGPT показывают отличные результаты.

«На сегодняшний день главная проблема – это дефицит высококвалифицированных кадров со специализацией в ИИ. Для сравнения: согласно последним исследования в США и Китае совокупно работают 70% таких специалистов. В то же время на все европейские страны приходятся всего 12%», – считает эксперт.

Похожие публикации