DeepSeek: китайская ИИ-модель вызывает опасения у экспертов по безопасности
16:55, 29.01.2025
В США набирает обороты обсуждение потенциальных рисков, связанных с использованием новой китайской языковой модели DeepSeek. Совет по национальной безопасности США выражают обеспокоенность по поводу того, что DeepSeek собирает большой объем данных о пользователях, что может представлять угрозу для конфиденциальности и национальной безопасности. Госслужащие в частности продолжают получать запреты на использование китайского ИИ-ассистента DeepSeek.
DeepSeek превосходит западные аналоги по скорости и эффективности
Несмотря на опасения, DeepSeek демонстрирует впечатляющие результаты, превосходя по некоторым параметрам даже такие известные модели, как ChatGPT.
В OpenAI также заявляют о подозрении о том, что китайский стартап пытается использовать наработки американских компаний для улучшения своей модели, и в свою очередь, намеревается сотрудничать с властями США, чтобы защитить свои разработки.
Эксперты рекомендуют проявлять осторожность при использовании DeepSeek
В связи с этим, эксперты рекомендуют проявлять осторожность при использовании DeepSeek и тщательно изучить политику конфиденциальности, чтобы понимать, какие данные собираются и как они могут быть использованы.
Группа европейских потребителей подала заявление в Итальянский регулятор с просьбой вычислить как DeepSeek обрабатывает персональные данные и соответствует ли этот механизм GDPR - нормативной базе по защите данных в Европе. DeepSeek осведомлен о наличии такого заявления, и на ответ у него есть 20 дней.
DeepSeek может быть использован для кибершпионажа и других вредоносных действий
Некоторые эксперты предполагают, что DeepSeek может быть использован для кибершпионажа, кражи интеллектуальной собственности и других вредоносных действий. В связи с этим, рекомендуется проявлять особую бдительность при работе с DeepSeek и другими ИИ-моделями, и не доверять ему конфиденциальную информацию.