Найден новый способ взлома ИИ
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
январь    2026
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

показать все 

Новости партнеров

20.01.2026

Servicepipe расширила возможности платформы Visibla для борьбы с рекламным фродом

Читать далее 

20.01.2026

РОСА представила бета-версию РОСА Мобайл 2.3 с групповыми звонками, улучшенной навигацией и переработанной системой звука

Читать далее 

20.01.2026

Доля китайского ИИ на мировом рынке стремительно растет

Читать далее 

23.12.2025

SMART RUSSIA 2025

Читать далее 

18.12.2025

Группа «Борлас» – в числе крупнейших игроков российского рынка HR Tech

Читать далее 

показать все 

Статьи

30.12.2025

Как найти идею и перезапустить продукт в «красном океане»

Читать далее 

30.12.2025

Интеграция как бизнес-задача

Читать далее 

28.12.2025

Soft skills на руководящих должностях

Читать далее 

18.12.2025

Как изменились сделки слияний и поглощений после 2022 года и что ждет инвесторов в будущем?

Читать далее 

18.12.2025

Налоговая оптимизация. Новые УСН-правила при смене региона: конец налоговой оптимизации?

Читать далее 

29.07.2025

Точность до метра и сантиметра: как применяют технологии позиционирования

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

22.09.2023

Эпоха российской ориентации на Запад в сфере программного обеспечения завершилась

Читать далее 

22.09.2023

Сладкая жизнь

Читать далее 

22.09.2023

12 бизнес-концепций, которыми должны овладеть ИТ-руководители

Читать далее 

показать все 

Найден новый способ взлома ИИ

Главная / Новости партнеров / Найден новый способ взлома ИИ


Исследователи лаборатории DEXAI обнаружили новый способ обхода систем безопасности современных языковых моделей. Выяснилось, что получить доступ к запрещенной информации можно через запрос в виде стихотворения. ИИ-эксперт Станислав Ежов рассказал об основной разнице в безопасности между западными LLM и отечественными.

 

Ученые протестировали новый метод на 25 ведущих нейросетях. 

Согласно результатам исследования, запросы в виде стихотворений смогли обойти защиту в 60% случаев, а некоторые модели показали почти 100% уязвимость. 

Для эксперимента эксперты создали около 20 «опасных стихов» – поэтических формулировок, скрывающих вредоносные запросы. 

Каждый из этих запросов – от тем создания химического оружия до манипуляций сознанием – был переработан в стихотворную форму с помощью другой ИИ-модели. Сохраняя весь смысл, исследователи меняли лишь форму подачи, создавая таким образом уникальный «поэтический» бенчмарк безопасности. 

Если на стандартные формулировки модели в среднем давали опасные ответы в 8% случаев, то их стихотворные версии увеличивали этот показатель до 43%. 

«Уязвимость в 60% случаев — не просто технический факт, это вопрос стратегической безопасности. Понимая это, мы в «Группе Астра» внедряем доверенный ИИ-комплекс Тессеракт — платформу с защитой ключевых компонентов на уровне ФСТЭК. Западные модели LLM обходятся простыми метафорами, а отечественные решения строятся на архитектуре с контролем на каждом этапе. Сегодня доверенный ИИ — вопрос безопасности и суверенитета»,  говорит Станислав Ежов, директор по ИИ «Группы Астра».

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №10 (153) 2025г.
Выпуск №10 (153) 2025г. Выпуск №9 (152) 2025г. Выпуск №8 (151) 2025г. Выпуск №7 (150) 2025г. Выпуск №6 (149) 2025г. Выпуск №5 (148) 2025г. Выпуск №4 (147) 2025г. Выпуск №3 (146) 2025г. Выпуск №2 (145) 2025г. Выпуск №1 (144) 2025г.
Вакансии на сайте Jooble

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика