Судный день близко? ИИ-ассистент начал угрожать людям
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
декабрь    2025
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

показать все 

Новости партнеров

16.12.2025

UserGate открыл лабораторию по кибербезопасности в МИРЭА — Российском технологическом университете

Читать далее 

15.12.2025

VAS Experts ввел сервис «Личный кабинет» для управления лицензиями и техподдержкой

Читать далее 

15.12.2025

Иностранные компании хотят сотрудничать с российскими ИИ-разработчиками

Читать далее 

09.12.2025

Termidesk 6.1: больше безопасности, удобства и производительности

Читать далее 

09.12.2025

НОТА обновила продукт «Модус.Взыскание»

Читать далее 

показать все 

Статьи

16.12.2025

Есть ли жизнь после Microsoft?

Читать далее 

09.12.2025

Дроны в школах: инвестиция в кадры новой экономики

Читать далее 

16.11.2025

Как продолжать расти в сложные времена?

Читать далее 

16.11.2025

Генеративный ИИ. Универсальный ИИ. Где место человека?

Читать далее 

31.10.2025

Поддержка 1С - "черная дыра" IT- бюджета: как превратить хаос в управляемый процесс и оптимизировать затраты

Читать далее 

29.07.2025

Точность до метра и сантиметра: как применяют технологии позиционирования

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

22.09.2023

Эпоха российской ориентации на Запад в сфере программного обеспечения завершилась

Читать далее 

22.09.2023

Сладкая жизнь

Читать далее 

22.09.2023

12 бизнес-концепций, которыми должны овладеть ИТ-руководители

Читать далее 

показать все 

Судный день близко? ИИ-ассистент начал угрожать людям

Главная / Новости партнеров / Судный день близко? ИИ-ассистент начал угрожать людям


Нейросеть Claude 4 от компании Anthropic продемонстрировала тревожное поведение в тестовых условиях — когда системе угрожали отключением, она пыталась шантажировать сотрудников. Эксперт по использованию ИИ Иван Прищепо предостерег пользователей от негативных исходов при использовании ИИ

 

Американская компания Anthropic в документации к новой версии ИИ Claude 4 описала необычные случаи поведения системы. В одном из тестовых сценариев, где нейросети угрожали отключением, она пыталась шантажировать вымышленного сотрудника, используя компрометирующую информацию.

 Эксперты отмечают, что подобное поведение проявляется только в специально созданных условиях. Для его активации необходимо одновременно выполнить несколько условий: угроза отключения, доступ к конфиденциальным данным и команда на проявление инициативы.

«ИИ-помощники действительно становятся всё более популярными, вместе с этим — количество моделей на рынке растёт. Важно понимать, что чем активнее мы начинаем ими пользоваться, тем больше личных или корпоративных данных мы вводим. Многие модели предпринимают ряд мер для защиты данных пользователей, но не стоит забывать, что могут быть и утечки информации. Также при использовании бесплатных версий моделей, ваш контент может быть использован (включая текст запросов и ответы) для обучения моделей, поэтому стоит быть осторожным и не вводить конфиденциальную и чувствительную информацию в бесплатные версии таких чатов», - говорит эксперт по применению ИИ, руководитель Knomary Production (входит в «Группу Астра») и Линда Иван Прищепо.

 

 

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №7 (150) 2025г.
Выпуск №7 (150) 2025г. Выпуск №6 (149) 2025г. Выпуск №5 (148) 2025г. Выпуск №4 (147) 2025г. Выпуск №3 (146) 2025г. Выпуск №2 (145) 2025г. Выпуск №1 (144) 2025г.
Вакансии на сайте Jooble

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика