Найден новый способ взлома ИИ
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
март    2026
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

показать все 

Новости партнеров

17.03.2026

Российские разработчики создают систему для проектирования сверхвысокочастотных интегральных схем на Astra Linux

Читать далее 

05.03.2026

МТС AdTech и MWS AI: 24% трудоспособного населения России регулярно пользуются генеративным ИИ в формате чатов

Читать далее 

05.03.2026

Эксперт SafeERP Римма Кулешова: безопасность ERP больше не про ИТ, а про выживание бизнеса

Читать далее 

05.03.2026

Не внедривший — жалеет: каждый третий предприниматель пожалел, что не внедрил автоматизацию раньше

Читать далее 

03.03.2026

«Байкал Электроникс» и РЕГЛАБ заключили миллиардный контракт на поставку микроконтроллеров Baikal U-1000

Читать далее 

показать все 

Статьи

18.03.2026

Ах, если бы сбылась моя мечта!

Читать далее 

06.03.2026

Как компьютеры понимают текст?

Читать далее 

06.03.2026

Как компьютеры понимают текст?

Читать далее 

30.12.2025

Как найти идею и перезапустить продукт в «красном океане»

Читать далее 

30.12.2025

Интеграция как бизнес-задача

Читать далее 

29.07.2025

Точность до метра и сантиметра: как применяют технологии позиционирования

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

22.09.2023

Эпоха российской ориентации на Запад в сфере программного обеспечения завершилась

Читать далее 

22.09.2023

Сладкая жизнь

Читать далее 

22.09.2023

12 бизнес-концепций, которыми должны овладеть ИТ-руководители

Читать далее 

показать все 

Найден новый способ взлома ИИ

Главная / Новости партнеров / Найден новый способ взлома ИИ


Исследователи лаборатории DEXAI обнаружили новый способ обхода систем безопасности современных языковых моделей. Выяснилось, что получить доступ к запрещенной информации можно через запрос в виде стихотворения. ИИ-эксперт Станислав Ежов рассказал об основной разнице в безопасности между западными LLM и отечественными.

 

Ученые протестировали новый метод на 25 ведущих нейросетях. 

Согласно результатам исследования, запросы в виде стихотворений смогли обойти защиту в 60% случаев, а некоторые модели показали почти 100% уязвимость. 

Для эксперимента эксперты создали около 20 «опасных стихов» – поэтических формулировок, скрывающих вредоносные запросы. 

Каждый из этих запросов – от тем создания химического оружия до манипуляций сознанием – был переработан в стихотворную форму с помощью другой ИИ-модели. Сохраняя весь смысл, исследователи меняли лишь форму подачи, создавая таким образом уникальный «поэтический» бенчмарк безопасности. 

Если на стандартные формулировки модели в среднем давали опасные ответы в 8% случаев, то их стихотворные версии увеличивали этот показатель до 43%. 

«Уязвимость в 60% случаев — не просто технический факт, это вопрос стратегической безопасности. Понимая это, мы в «Группе Астра» внедряем доверенный ИИ-комплекс Тессеракт — платформу с защитой ключевых компонентов на уровне ФСТЭК. Западные модели LLM обходятся простыми метафорами, а отечественные решения строятся на архитектуре с контролем на каждом этапе. Сегодня доверенный ИИ — вопрос безопасности и суверенитета»,  говорит Станислав Ежов, директор по ИИ «Группы Астра».

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №10 (153) 2025г.
Выпуск №10 (153) 2025г. Выпуск №9 (152) 2025г. Выпуск №8 (151) 2025г. Выпуск №7 (150) 2025г. Выпуск №6 (149) 2025г. Выпуск №5 (148) 2025г. Выпуск №4 (147) 2025г. Выпуск №3 (146) 2025г. Выпуск №2 (145) 2025г. Выпуск №1 (144) 2025г.
Вакансии на сайте Jooble

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика