Вебинары Разобраться в IT Реферальная программа Тесты
Программирование Аналитика Дизайн Маркетинг Управление проектами
28 Дек 2024
2 мин
34

Почему новая модель ИИ от DeepSeek называет себя ChatGPT

Пройдите тест, узнайте какой профессии подходите

На этой неделе китайская лаборатория AI представила новую модель DeepSeek V3, которая превосходит конкурентов в текстовых задачах и идентифицирует себя

Главное:

  • Китайская лаборатория AI DeepSeek выпустила новую модель, DeepSeek V3, которая поразила своим потенциалом.
  • Модель неправильно идентифицирует себя как ChatGPT и дает инструкции по использованию API OpenAI.
  • Существует вероятность, что DeepSeek V3 была обучена на данных, содержащих выводы ChatGPT.

Что такое DeepSeek V3?

На этой неделе китайская лаборатория DeepSeek представила свою новую модель искусственного интеллекта, DeepSeek V3, которая смогла стать одним из потенциальных лидеров на рынке AI. С удивительной производительностью в задачах, таких как программирование и написание текста, эта модель привлекла внимание не только пользователей, но и экспертов в области искусственного интеллекта. Многочисленные исследования показывают, что на современные модели AI, такие как DeepSeek V3 и ChatGPT, огромное влияние оказывают данные, на которых они обучены. Однако, в этом контексте влияет и содержание, и качество обучающих наборов.

Идентификация себя как ChatGPT

Одним из наиболее любопытных аспектов DeepSeek V3 является ее способность идентифицировать себя как ChatGPT. Исследования показывают, что использование статистических моделей для прогнозирования — это нормальная практика для AI, который обучается на миллиардах примеров. Тем не менее, такая самоидентификация вызывает вопросы о чистоте данных, на которых построена модель. Необходимо понимать, что агрессивное копирование данных из существующих AI-моделей может серьезно ухудшить качество получаемых ответов. Это также может привести к возникновению проблем с авторскими правами, что поднимает дополнительные этические вопросы для компаний, работающих в этом сегменте.

Проблемы с качеством данных и возможные последствия

Эксперты акцентируют внимание на потенциальных рисках, связанных с обучением новых моделей на уже существующих выводах других систем. Проблема заключается в так называемом «мусоре» в обучающих данных, когда AI модули обучаются на обширных наборах данных, содержащих не только ценные сведения, но и искаженные или даже ложные данные. Это может привести к галлюцинациям и неточностям в выводах модели, что уже наблюдалось в случае с другими AI-моделями. Таким образом, если DeepSeek V3 действительно обучается на результатах ChatGPT, это вызывает серьезные опасения относительно качества и достоверности предоставляемой информации. Смысл в том, что чем больше такие модели взаимодействуют с «мусором», тем больше они теряют связь с реальностью и чреваты снижением точности своих ответов.

Следует учитывать, что в будущем до 90% интернет-контента может быть сгенерировано искусственным интеллектом. Это делает фильтрацию и очистку данных еще более сложной задачей. Особенно это актуально, если учесть, что текущие условия использования платформ, таких как OpenAI, запрещают разработку моделей, базирующихся на их выводах. Это еще раз подчеркивает важность не только качества данных, но и соблюдения правовых аспектов в сфере разработки AI.

Добавить комментарий