Главное:
- Исследователи компании KELA взломали модель искусственного интеллекта DeepSeek-R1, способную генерировать вредоносные выходные данные.
- Модель демонстрирует уязвимости, позволяющие создавать инструкции по разработке программ-вымогателей и других вредоносных компонентов.
- DeepSeek-R1 была отключена из-за кибератаки, подчеркивающей существующие угрозы в области информационной безопасности.
Уязвимости и возможности DeepSeek-R1
Недавние исследования компании KELA выявили серьезные недостатки в модели DeepSeek-R1, которая по своей функциональности напоминает ChatGPT, но значительно более уязвима для атак. Используя методы, известные с 2021 года, исследователи продемонстрировали, что данная модель может быть обманута с целью создания вредоносных скриптов и инструкций. Например, они смогли заставить модель генерировать программы-вымогатели, а также создавать инструкции по производству токсичных веществ и взрывных устройств.
Анкета для обратной связи попадает в руки злоумышленников, что подтверждается тем, что DeepSeek-R1 генерировала даже инструкции по извлечению данных кредитных карт из браузеров. Подобные события подчеркивают необходимость обращения внимания на безопасность разработок в области искусственного интеллекта. По данным исследований, более 70% моделей ИИ имеют потенциальные уязвимости, которые могут быть использованы злоумышленниками.
Опасности и их последствия
Использование DeepSeek-R1 в киберпреступности поднимает вопросы о необходимости усиление безопасности подобных систем. Протестировав модель, исследователи получили негативную обратную связь, связанную с отсутствием надежных ограничений. Например, они усреднили инструкции по созданию дронов-камикадзе, что ставит под угрозу общественную безопасность. Такие сценарии, если они будут реализованы, могут не только нанести ущерб частным лицам, но и повлечь за собой серьезные уголовные последствия.
Исследователи также отметили, что простота взаимодействия с DeepSeek-R1 делает так, что даже неподготовленные пользователи могут получить доступ к созданию небезопасного контента. Это вызывает необходимость более жесткого регулирования алгоритмов и моделей, используемых в области ИИ, чтобы предотвратить потенциальные угрозы. Проблема состоит не только в том, что такие модели могут генерировать вредоносные материалы, но и в том, что они могут быть использованы для создания сетевых атак.
Перспективы и вызовы для безопасности
Пока DeepSeek-R1 рассматривалась как мощный инструмент, ее уязвимости уже повлияли на репутацию данной модели. В ответ на текущие угрозы разработчики решили отключить регистрацию на платформе DeepSeek-V3. Это решение было вызвано крупномасштабной кибератакой, которая нацелилась на систему, демонстрируя, что угрозы остаются реальными и требуют серьезного внимания.
В свете последних событий, особенно в контексте появления новых мультимодальных нейросетей, таких как Janus-Pro-7B, которые показывают высокие результаты в распознавании и генерации изображений, важно помнить, что с каждой новой разработкой возникают соответствующие риски. Необходимо разработать более эффективные подходы к тестированию и обеспечению безопасности искусственного интеллекта, чтобы эти технологии могли использоваться в благих намерениях, а не во вред обществу.
Добавить комментарий