|
Календарь мероприятий
ноябрь 2025
Пн |
Вт |
Ср |
Чт |
Пт |
Сб |
Вс |
| | | | | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | |
показать все 
Новости партнеров
От -60 до +40 °С: отказоустойчивый ЦОД для Алмазэргиэнбанка от «Инфосистемы Джет»
Читать далее 
Сергей Полунин выступил экспертом на питчинг-сессии технологических решений
Читать далее 
F6 и «Софтлайн Решения» (ГК Softline) внедрили у ритейлера систему защиты корпоративной почты
Читать далее 
Найден новый способ взлома ИИ
Читать далее 
Приглашаем на «Цифровую разморозку»!
Читать далее 
показать все 
Статьи
Генеративный ИИ. Универсальный ИИ. Где место человека?
Читать далее 
Как продолжать расти в сложные времена?
Читать далее 
Поддержка 1С - "черная дыра" IT- бюджета: как превратить хаос в управляемый процесс и оптимизировать затраты
Читать далее 
Как посчитать реальную выгоду от ИИ в видеонаблюдении?
Читать далее 
Управление расходами: режем косты с помощью ИИ
Читать далее 
Точность до метра и сантиметра: как применяют технологии позиционирования
Читать далее 
Как искусственный интеллект изменит экономику
Читать далее 
Эпоха российской ориентации на Запад в сфере программного обеспечения завершилась
Читать далее 
Сладкая жизнь
Читать далее 
12 бизнес-концепций, которыми должны овладеть ИТ-руководители
Читать далее 
показать все 
|
Найден новый способ взлома ИИ
Главная / Новости партнеров / Найден новый способ взлома ИИ
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
Исследователи лаборатории DEXAI обнаружили новый способ обхода систем безопасности современных языковых моделей. Выяснилось, что получить доступ к запрещенной информации можно через запрос в виде стихотворения. ИИ-эксперт Станислав Ежов рассказал об основной разнице в безопасности между западными LLM и отечественными.
Ученые протестировали новый метод на 25 ведущих нейросетях.
Согласно результатам исследования, запросы в виде стихотворений смогли обойти защиту в 60% случаев, а некоторые модели показали почти 100% уязвимость.
Для эксперимента эксперты создали около 20 «опасных стихов» – поэтических формулировок, скрывающих вредоносные запросы.
Каждый из этих запросов – от тем создания химического оружия до манипуляций сознанием – был переработан в стихотворную форму с помощью другой ИИ-модели. Сохраняя весь смысл, исследователи меняли лишь форму подачи, создавая таким образом уникальный «поэтический» бенчмарк безопасности.
Если на стандартные формулировки модели в среднем давали опасные ответы в 8% случаев, то их стихотворные версии увеличивали этот показатель до 43%.
«Уязвимость в 60% случаев — не просто технический факт, это вопрос стратегической безопасности. Понимая это, мы в «Группе Астра» внедряем доверенный ИИ-комплекс Тессеракт — платформу с защитой ключевых компонентов на уровне ФСТЭК. Западные модели LLM обходятся простыми метафорами, а отечественные решения строятся на архитектуре с контролем на каждом этапе. Сегодня доверенный ИИ — вопрос безопасности и суверенитета», — говорит Станислав Ежов, директор по ИИ «Группы Астра». В начало⇑
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
Комментарии отсутствуют
Комментарии могут отставлять только зарегистрированные пользователи
|
Вакансии на сайте Jooble
|