5 тревожных фактов о безопасности GenAI

В эпоху, когда технологии искусственного интеллекта и крупные языковые модели становятся основополагающими, очевидно, что они кардинально трансформируют бизнес. Опрос более 1000 мировых лидеров отрасли показал, что многие уже внедряют LLM в свою практику, но, увы, не все готовы обеспечить защиту этих систем.⚠️
"Спрос на киберзащиту сервисов с применением ИИ в России за 2024 год вырос в 2,5 раза. Мы видим, что по мере активного внедрения AI, бизнес сталкивается с новыми рисками: от утечек и внедрения вредоносного кода в запросы к модели до компрометации самих моделей. На фоне кадрового дефицита компании всё чаще полагаются на ИИ, и тем важнее становится не перекладывать на него ответственность за безопасность, а внедрять практики AI Security уже сейчас " — отмечает Андрей Иванов, директор по развитию бизнеса Swordfish Security.
-
- 20 мая
5 тревожных фактов о безопасности GenAI
-
- 15 мая
Как защитить секреты в исходном коде: советы от DevSecOps-инженера
-
- 14 апреля
Новые уязвимости в Ingress-nginx для Kubernetes позволяют хакерам удаленно выполнять произ...
-
- 07 апреля
Искусственный интеллект под реальной угрозой: почему специалисты по безопасности ИИ станов...
-
- 18 марта
DevSecOps в «облаках»: эксперт Swordfish Security выступил на митапе RCCPA и Nubes
-
- 10 марта
Индустриальный переход на отечественное безопасное ПО