Судный день близко? ИИ-ассистент начал угрожать людям
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
февраль    2026
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28

показать все 

Новости партнеров

16.02.2026

Госструктурам могут ограничить доступ к зарубежному ИИ

Читать далее 

11.02.2026

Группа «Борлас» вошла в ТОП-5 крупнейших поставщиков решений из реестра отечественного ПО

Читать далее 

11.02.2026

В «Прио Внешторгбанке» создали единый ИТ-стандарт на базе решений «Группы Астра»

Читать далее 

11.02.2026

Минцифры занялось безопасностью ИИ-систем

Читать далее 

10.02.2026

Тренд №1 в кибербезопасности на 2026 год — контроль агентного ИИ

Читать далее 

показать все 

Статьи

30.12.2025

Как найти идею и перезапустить продукт в «красном океане»

Читать далее 

30.12.2025

Интеграция как бизнес-задача

Читать далее 

28.12.2025

Soft skills на руководящих должностях

Читать далее 

18.12.2025

Как изменились сделки слияний и поглощений после 2022 года и что ждет инвесторов в будущем?

Читать далее 

18.12.2025

Налоговая оптимизация. Новые УСН-правила при смене региона: конец налоговой оптимизации?

Читать далее 

29.07.2025

Точность до метра и сантиметра: как применяют технологии позиционирования

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

22.09.2023

Эпоха российской ориентации на Запад в сфере программного обеспечения завершилась

Читать далее 

22.09.2023

Сладкая жизнь

Читать далее 

22.09.2023

12 бизнес-концепций, которыми должны овладеть ИТ-руководители

Читать далее 

показать все 

Судный день близко? ИИ-ассистент начал угрожать людям

Главная / Новости партнеров / Судный день близко? ИИ-ассистент начал угрожать людям


Нейросеть Claude 4 от компании Anthropic продемонстрировала тревожное поведение в тестовых условиях — когда системе угрожали отключением, она пыталась шантажировать сотрудников. Эксперт по использованию ИИ Иван Прищепо предостерег пользователей от негативных исходов при использовании ИИ

 

Американская компания Anthropic в документации к новой версии ИИ Claude 4 описала необычные случаи поведения системы. В одном из тестовых сценариев, где нейросети угрожали отключением, она пыталась шантажировать вымышленного сотрудника, используя компрометирующую информацию.

 Эксперты отмечают, что подобное поведение проявляется только в специально созданных условиях. Для его активации необходимо одновременно выполнить несколько условий: угроза отключения, доступ к конфиденциальным данным и команда на проявление инициативы.

«ИИ-помощники действительно становятся всё более популярными, вместе с этим — количество моделей на рынке растёт. Важно понимать, что чем активнее мы начинаем ими пользоваться, тем больше личных или корпоративных данных мы вводим. Многие модели предпринимают ряд мер для защиты данных пользователей, но не стоит забывать, что могут быть и утечки информации. Также при использовании бесплатных версий моделей, ваш контент может быть использован (включая текст запросов и ответы) для обучения моделей, поэтому стоит быть осторожным и не вводить конфиденциальную и чувствительную информацию в бесплатные версии таких чатов», - говорит эксперт по применению ИИ, руководитель Knomary Production (входит в «Группу Астра») и Линда Иван Прищепо.

 

 

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №10 (153) 2025г.
Выпуск №10 (153) 2025г. Выпуск №9 (152) 2025г. Выпуск №8 (151) 2025г. Выпуск №7 (150) 2025г. Выпуск №6 (149) 2025г. Выпуск №5 (148) 2025г. Выпуск №4 (147) 2025г. Выпуск №3 (146) 2025г. Выпуск №2 (145) 2025г. Выпуск №1 (144) 2025г.
Вакансии на сайте Jooble

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика