Вебинары Разобраться в IT Реферальная программа Тесты
Программирование Аналитика Дизайн Маркетинг Управление проектами
04 Фев 2025
2 мин
52

Цензура в DeepSeek активируется при локальном использовании модели

Пройдите тест, узнайте какой профессии подходите

Эксперты по ИИ ошибались, считая, что цензура DeepSeek действует только на уровне приложения; локальный запуск также нарушает ее.

Главное:

  • Цензура в системе DeepSeek работает даже при локальном запуске приложения.
  • Данная цензура встроена как на уровне приложения, так и на уровне обучения модели.
  • Успешные эксперименты показали, что модели могут избегать обсуждения исторически чувствительных тем, таких как события на площади Тяньаньмэнь.

Цензура DeepSeek: факты и исследования

Недавние исследования, проведенные журналами Wired и TechCrunch, подтвердили, что цензура в искусственном интеллекте DeepSeek продолжает функционировать даже при локальном запуске. Ранее существовали мнения, что при локальном использовании подобные ограничения снимаются, но факты говорят об обратном. В частности, журналисты, воспользовавшиеся локальной версией DeepSeek, стали свидетелями того, как система избегает упоминания значимых исторических событий и ориентируется исключительно на положительные аспекты деятельности Коммунистической партии Китая, что делает ее применение в контексте свободы слова весьма сомнительным.

Этот пример иллюстрирует общую проблему, актуальную не только для DeepSeek, но и для многих современных нейросетей, которые могут подвержены предвзятости или манипуляции в зависимости от вводных данных и алгоритмов обучения.

Что скрывают алгоритмы?

Любое изучение вопроса, связанного с цензурой в AI, задает серьезные вопросы о прозрачности и этике в разработке подобных технологий. Так, локально запущенная версия DeepSeek, доступная через Groq, показала, что она отказывается обсуждать Хининское восстание 1989 года, тем самым игнорируя исторические факты, которые могут быть важными для их анализа. Прозрачность алгоритмов и их способности к манипуляции информацией должен быть предметом глубокого рассмотрения и обсуждения, особенно среди разработчиков и пользователей подобных технологий.

Важно отметить, что использование нейросетей в условиях цензуры ограничивает доступ к информации и накапливает риски дезинформации. Существуют исследования, показывающие, что заблуждения в понимании исторических событий могут привести к масштабным социальным последствиям, включая создание поляризованных и неправильно информированных обществ.

Перспективы и выводы

Будущее технологий искусственного интеллекта, особенно подобных DeepSeek, требует серьезного внимания к проблемам предвзятости и цензуры. Разработка более открытых и поддающихся аудиту моделей может способствовать большей справедливости в их использовании. Общество, которое направляет усилия на улучшение прозрачности и подотчетности алгоритмов, сможет достичь намного большей степени доверия к технологиям AI. Однако изменение мышления и подходов со стороны разработчиков, законодательных органов и пользователей является необходимым условием для достижения этой цели.

Добавить комментарий