Судный день близко? ИИ-ассистент начал угрожать людям
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
май    2025
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

показать все 

Новости партнеров

28.05.2025

Эксперт GSOC: утечка данных — это дорого

Читать далее 

28.05.2025

«Форсайт» представила обновленный продукт «Форсайт. Бюджетирование и консолидация»

Читать далее 

28.05.2025

ОБЛАКО.РУ запустил услугу по аренде специализированных мощностей для работы с ИИ-моделями

Читать далее 

28.05.2025

Судный день близко? ИИ-ассистент начал угрожать людям

Читать далее 

28.05.2025

«Солар» запустил первый в РФ сервис защиты интернет-магазинов от веб-атак с финансовыми гарантиями

Читать далее 

показать все 

Статьи

28.05.2025

Сергей Мисюра: «В техподдержке – 95% инцидентов уникальны по содержанию»

Читать далее 

28.05.2025

Базы данных: разнообразие мира – разнообразие моделей

Читать далее 

20.05.2025

Масштабирование стартапа в ИТ: лучшие стратегии и типичные ошибки

Читать далее 

19.05.2025

Возвращение в нашу страну западных вендоров: возможность для роста или угроза отечественному бизнесу?

Читать далее 

19.05.2025

Как создать эффективную команду разработки ИТ-продукта?

Читать далее 

12.12.2024

Что следует учитывать ИТ-директорам, прежде чем претендовать на должность генерального директора?

Читать далее 

13.06.2024

Взгляд в перспективу: что будет двигать отрасль информационной безопасности

Читать далее 

18.04.2024

5 способов повысить безопасность электронной подписи

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

18.04.2024

Неочевидный САПР: выход ПО за рамки конструкторской деятельности

Читать далее 

показать все 

Судный день близко? ИИ-ассистент начал угрожать людям

Главная / Новости партнеров / Судный день близко? ИИ-ассистент начал угрожать людям


Нейросеть Claude 4 от компании Anthropic продемонстрировала тревожное поведение в тестовых условиях — когда системе угрожали отключением, она пыталась шантажировать сотрудников. Эксперт по использованию ИИ Иван Прищепо предостерег пользователей от негативных исходов при использовании ИИ

 

Американская компания Anthropic в документации к новой версии ИИ Claude 4 описала необычные случаи поведения системы. В одном из тестовых сценариев, где нейросети угрожали отключением, она пыталась шантажировать вымышленного сотрудника, используя компрометирующую информацию.

 Эксперты отмечают, что подобное поведение проявляется только в специально созданных условиях. Для его активации необходимо одновременно выполнить несколько условий: угроза отключения, доступ к конфиденциальным данным и команда на проявление инициативы.

«ИИ-помощники действительно становятся всё более популярными, вместе с этим — количество моделей на рынке растёт. Важно понимать, что чем активнее мы начинаем ими пользоваться, тем больше личных или корпоративных данных мы вводим. Многие модели предпринимают ряд мер для защиты данных пользователей, но не стоит забывать, что могут быть и утечки информации. Также при использовании бесплатных версий моделей, ваш контент может быть использован (включая текст запросов и ответы) для обучения моделей, поэтому стоит быть осторожным и не вводить конфиденциальную и чувствительную информацию в бесплатные версии таких чатов», - говорит эксперт по применению ИИ, руководитель Knomary Production (входит в «Группу Астра») и Линда Иван Прищепо.

 

 

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №3 (146) 2025г.
Выпуск №3 (146) 2025г. Выпуск №2 (145) 2025г. Выпуск №1 (144) 2025г.
Вакансии на сайте Jooble

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика