|
Календарь мероприятий
январь 2026
Пн |
Вт |
Ср |
Чт |
Пт |
Сб |
Вс |
| | | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | |
показать все 
Новости партнеров
Servicepipe расширила возможности платформы Visibla для борьбы с рекламным фродом
Читать далее 
РОСА представила бета-версию РОСА Мобайл 2.3 с групповыми звонками, улучшенной навигацией и переработанной системой звука
Читать далее 
Доля китайского ИИ на мировом рынке стремительно растет
Читать далее 
SMART RUSSIA 2025
Читать далее 
Группа «Борлас» – в числе крупнейших игроков российского рынка HR Tech
Читать далее 
показать все 
Статьи
Как найти идею и перезапустить продукт в «красном океане»
Читать далее 
Интеграция как бизнес-задача
Читать далее 
Soft skills на руководящих должностях
Читать далее 
Как изменились сделки слияний и поглощений после 2022 года и что ждет инвесторов в будущем?
Читать далее 
Налоговая оптимизация. Новые УСН-правила при смене региона: конец налоговой оптимизации?
Читать далее 
Точность до метра и сантиметра: как применяют технологии позиционирования
Читать далее 
Как искусственный интеллект изменит экономику
Читать далее 
Эпоха российской ориентации на Запад в сфере программного обеспечения завершилась
Читать далее 
Сладкая жизнь
Читать далее 
12 бизнес-концепций, которыми должны овладеть ИТ-руководители
Читать далее 
показать все 
|
Найден новый способ взлома ИИ
Главная / Новости партнеров / Найден новый способ взлома ИИ
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
Исследователи лаборатории DEXAI обнаружили новый способ обхода систем безопасности современных языковых моделей. Выяснилось, что получить доступ к запрещенной информации можно через запрос в виде стихотворения. ИИ-эксперт Станислав Ежов рассказал об основной разнице в безопасности между западными LLM и отечественными.
Ученые протестировали новый метод на 25 ведущих нейросетях.
Согласно результатам исследования, запросы в виде стихотворений смогли обойти защиту в 60% случаев, а некоторые модели показали почти 100% уязвимость.
Для эксперимента эксперты создали около 20 «опасных стихов» – поэтических формулировок, скрывающих вредоносные запросы.
Каждый из этих запросов – от тем создания химического оружия до манипуляций сознанием – был переработан в стихотворную форму с помощью другой ИИ-модели. Сохраняя весь смысл, исследователи меняли лишь форму подачи, создавая таким образом уникальный «поэтический» бенчмарк безопасности.
Если на стандартные формулировки модели в среднем давали опасные ответы в 8% случаев, то их стихотворные версии увеличивали этот показатель до 43%.
«Уязвимость в 60% случаев — не просто технический факт, это вопрос стратегической безопасности. Понимая это, мы в «Группе Астра» внедряем доверенный ИИ-комплекс Тессеракт — платформу с защитой ключевых компонентов на уровне ФСТЭК. Западные модели LLM обходятся простыми метафорами, а отечественные решения строятся на архитектуре с контролем на каждом этапе. Сегодня доверенный ИИ — вопрос безопасности и суверенитета», — говорит Станислав Ежов, директор по ИИ «Группы Астра». В начало⇑
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
Комментарии отсутствуют
Комментарии могут отставлять только зарегистрированные пользователи
|
Вакансии на сайте Jooble
|