
Ведущий эксперт по информационной безопасности и заместитель генерального директора Staffcop Юрий Драченин поделился важными рекомендациями по безопасному взаимодействию с системами искусственного интеллекта. Ключевой принцип защиты — избегать загрузки критически важной информации в нейросети. Этот совет стал особенно актуальным после недавнего инцидента с утечкой пользовательских данных из китайской ИИ-системы DeepSeek.
Специалисты американской компании Wiz, специализирующейся на кибербезопасности, первыми обнаружили факт компрометации конфиденциальных данных пользователей в открытом доступе. Это событие подчеркнуло необходимость повышенной осторожности при работе с ИИ-системами.
Драченин подчеркивает, что любая информация, загруженная в нейросеть, потенциально может оказаться в руках третьих лиц. Это относится к широкому спектру данных: от корпоративной документации и коммерческих секретов до личной информации. Даже обычные запросы могут раскрыть важные детали о бизнес-стратегиях и проектах компании.
По словам эксперта, несмотря на то что архитектура ИИ-моделей предусматривает серьезные меры защиты, нельзя исключать возможность технических уязвимостей и влияния человеческого фактора. Это создает дополнительные риски для безопасности данных.
Мир искусственного интеллекта привлекает внимание как этичных («белых»), так и злонамеренных («черных») хакеров. «Появление новых технологий всегда вызывает исследовательский азарт. В сфере кибербезопасности работает множество специалистов по тестированию на проникновение, которые немедленно приступают к проверке новых систем на базовые уязвимости. Это напоминает проверку на детский мат в шахматах. Определить точное количество людей, получивших доступ к данным через такие проверки, практически невозможно», — объясняет Драченин.
В то же время развитие технологий искусственного интеллекта продолжается стремительными темпами. Недавно китайский технологический гигант Alibaba Cloud представил свою новую разработку — модель Qwen 2.5-Max, которая, по заявлению компании, превосходит возможности DeepSeek.
Несмотря на потенциальные риски, эксперты подчеркивают, что при соблюдении базовых правил безопасности нейросети остаются мощным инструментом для решения широкого спектра задач. Главное — ответственно подходить к выбору информации, которую мы доверяем искусственному интеллекту.
В современных условиях особенно важно развивать культуру цифровой гигиены и придерживаться принципов разумной осторожности при работе с новыми технологиями. Это позволит максимально эффективно использовать преимущества искусственного интеллекта, минимизируя возможные риски.
Источник: lenta.ru





