Найден новый способ взлома ИИ
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
ноябрь    2025
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

показать все 

Новости партнеров

26.11.2025

От -60 до +40 °С: отказоустойчивый ЦОД для Алмазэргиэнбанка от «Инфосистемы Джет»

Читать далее 

26.11.2025

Сергей Полунин выступил экспертом на питчинг-сессии технологических решений

Читать далее 

25.11.2025

F6 и «Софтлайн Решения» (ГК Softline) внедрили у ритейлера систему защиты корпоративной почты

Читать далее 

25.11.2025

Найден новый способ взлома ИИ

Читать далее 

13.11.2025

Приглашаем на «Цифровую разморозку»!

Читать далее 

показать все 

Статьи

16.11.2025

Генеративный ИИ. Универсальный ИИ. Где место человека?

Читать далее 

16.11.2025

Как продолжать расти в сложные времена?

Читать далее 

31.10.2025

Поддержка 1С - "черная дыра" IT- бюджета: как превратить хаос в управляемый процесс и оптимизировать затраты

Читать далее 

18.10.2025

Как посчитать реальную выгоду от ИИ в видеонаблюдении?

Читать далее 

18.10.2025

Управление расходами: режем косты с помощью ИИ

Читать далее 

29.07.2025

Точность до метра и сантиметра: как применяют технологии позиционирования

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

22.09.2023

Эпоха российской ориентации на Запад в сфере программного обеспечения завершилась

Читать далее 

22.09.2023

Сладкая жизнь

Читать далее 

22.09.2023

12 бизнес-концепций, которыми должны овладеть ИТ-руководители

Читать далее 

показать все 

Найден новый способ взлома ИИ

Главная / Новости партнеров / Найден новый способ взлома ИИ


Исследователи лаборатории DEXAI обнаружили новый способ обхода систем безопасности современных языковых моделей. Выяснилось, что получить доступ к запрещенной информации можно через запрос в виде стихотворения. ИИ-эксперт Станислав Ежов рассказал об основной разнице в безопасности между западными LLM и отечественными.

 

Ученые протестировали новый метод на 25 ведущих нейросетях. 

Согласно результатам исследования, запросы в виде стихотворений смогли обойти защиту в 60% случаев, а некоторые модели показали почти 100% уязвимость. 

Для эксперимента эксперты создали около 20 «опасных стихов» – поэтических формулировок, скрывающих вредоносные запросы. 

Каждый из этих запросов – от тем создания химического оружия до манипуляций сознанием – был переработан в стихотворную форму с помощью другой ИИ-модели. Сохраняя весь смысл, исследователи меняли лишь форму подачи, создавая таким образом уникальный «поэтический» бенчмарк безопасности. 

Если на стандартные формулировки модели в среднем давали опасные ответы в 8% случаев, то их стихотворные версии увеличивали этот показатель до 43%. 

«Уязвимость в 60% случаев — не просто технический факт, это вопрос стратегической безопасности. Понимая это, мы в «Группе Астра» внедряем доверенный ИИ-комплекс Тессеракт — платформу с защитой ключевых компонентов на уровне ФСТЭК. Западные модели LLM обходятся простыми метафорами, а отечественные решения строятся на архитектуре с контролем на каждом этапе. Сегодня доверенный ИИ — вопрос безопасности и суверенитета»,  говорит Станислав Ежов, директор по ИИ «Группы Астра».

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №7 (150) 2025г.
Выпуск №7 (150) 2025г. Выпуск №6 (149) 2025г. Выпуск №5 (148) 2025г. Выпуск №4 (147) 2025г. Выпуск №3 (146) 2025г. Выпуск №2 (145) 2025г. Выпуск №1 (144) 2025г.
Вакансии на сайте Jooble

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика