ИИ сможет стать умнее людей уже через пять лет::БИТ 09.2023
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
май    2024
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

показать все 

Новости партнеров

27.04.2024

RAMAX Group рассказала на Smart Mining & Metals об особенностях пилотирования ML-проектов

Читать далее 

22.04.2024

Сообщество цифровых управленцев «я-ИТ-ы» проводит ЗАКРЫТУЮ встречу в рамках выставки «Связь-2024»!

Читать далее 

18.04.2024

Ассоциация разработчиков «Отечественный софт» отметила 15-летие

Читать далее 

17.04.2024

РДТЕХ представил Технологическую карту российского ПО 2023

Читать далее 

показать все 

Статьи

18.04.2024

5 способов повысить безопасность электронной подписи

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

18.04.2024

Неочевидный САПР: выход ПО за рамки конструкторской деятельности

Читать далее 

18.04.2024

Скоро некому будет делать сайты и заниматься версткой

Читать далее 

18.04.2024

Цифровая трансформация в энергетике: как запустить проект с максимальным финансовым эффектом?

Читать далее 

05.04.2024

Мотивируй, не то проиграешь!

Читать далее 

22.03.2024

В 2024 году в России и мире вырастут объемы применения AR/VR 

Читать далее 

25.02.2024

Цифровые технологии: надежды и риски

Читать далее 

05.02.2024

Будут ли востребованы услуги технической поддержки софта Oracle в России в ближайшие годы?  

Читать далее 

31.01.2024

Здания с признаками интеллекта. Как Сергей Провалихин автоматизирует дома и производства

Читать далее 

показать все 

ИИ сможет стать умнее людей уже через пять лет

Главная / Архив номеров / 2023 / Выпуск №09 (132) / ИИ сможет стать умнее людей уже через пять лет

Рубрика: Тема номера /  Искусственный интеллект



ИИ сможет стать

умнее людей уже через пять лет

Мы стоим на пороге 2024 года, когда сфера искусственного интеллекта (ИИ) претерпевает трансформационные сдвиги, которые по-новому определят то, как мы воспринимаем и используем технологии. О наступающей эре искусственного интеллекта пишут, говорят, размышляют на всех континентах. В этом обзоре представлены разные точки зрения на ИИ и его роль в развитии бизнеса и изменении технологического ландшафта. 

 

Десять тенденций в области искусственного интеллекта-2024

Нилеш Крипалани, технический директор Clover Infotech


1. Кибербезопасность на базе искусственного интеллекта: новый Digital Shield

Искусственный интеллект становится краеугольным камнем надежных стратегий кибербезопасности. Алгоритмы машинного обучения теперь могут быстро выявить и нейтрализовать киберугрозы в режиме реального времени, делая наши цифровые крепости более безопасными, чем когда-либо прежде.


2. Объяснимый ИИ: Демистификация черного ящика

Спрос на прозрачность процессов принятия решений с использованием ИИ растет. Объяснимые модели искусственного интеллекта позволяют нам понимать результаты работы сложных алгоритмов ИИ и доверять им. Понимание «почему», стоящего за решениями с использованием искусственного интеллекта – это будущее ответственного подхода и внедрения технологий ИИ.


3. Автоматизация процессов, управляемая искусственным интеллектом: повышение эффективности

Благодаря сочетанию искусственного интеллекта и автоматизации меняются рабочие процессы. Автоматизация на основе искусственного интеллекта – от рутинных задач до сложных процессов – оптимизирует операции, повышает эффективность и снижает эксплуатационные расходы. Организации по всему миру внедряют ИТ, чтобы добиться беспрецедентного роста производительности.


4. Искусственный интеллект в здравоохранении: революция в уходе за пациентами

ИИ реформирует оказание медицинской помощи. Прогностическая аналитика, распознавание изображений и обработка естественного языка позволяют проводить более точную диагностику, вести персонализированное лечение и эффективный уход за пациентами. В 2024 году здравоохранение, основанное на искусственном интеллекте, может стать нормой.


5. Этика искусственного интеллекта и смягчение предвзятости: моральный императив

Обеспечение этической надежности систем ИИ не подлежит обсуждению. Методы устранения предвзятости и этические основы искусственного интеллекта имеют решающее значение. Мы несем ответственность за то, чтобы системы искусственного интеллекта были справедливыми, непредвзятыми и подотчетными.


6. Периферийные вычисления с поддержкой искусственного интеллекта: мощь на периферии

Периферийные вычисления, усиленные искусственным интеллектом, позволяют проводить анализ данных в режиме реального времени на границе сетей. Эта способность быстро принимать решения меняет правила игры, особенно в приложениях Интернета вещей, создавая новые возможности для повышения эффективности, оперативности реагирования и инноваций.


7. Персонализация на базе искусственного интеллекта: адаптация опыта

Ожидания клиентов стремительно растут, и искусственный интеллект является ключом к их удовлетворению. Персонализация, основанная на искусственном интеллекте, позволяет компаниям создавать гиперцелевые и индивидуальные решения в ответ на запросы клиентов, что приводит к повышению удовлетворенности, вовлеченности и лояльности.


8. Квантовые вычисления и искусственный интеллект: абсолютная синергия

Потенциал квантовых вычислений для решения сложных задач ИИ невозможно переоценить. Конвергенция квантовых вычислений и алгоритмов искусственного интеллекта приведет к прорывам в таких областях, как задачи оптимизации и алгоритмы машинного обучения.


9. Искусственный интеллект в управлении человеческими ресурсами: насыщаем HRM интеллектуальностью

Развитие искусственного интеллекта на рабочем месте меняет функции управления персоналом. Прогностическая аналитика, анализ настроений и инструменты подбора персонала, основанные на искусственном интеллекте, оптимизируют управление талантами, способствуют повышению вовлеченности рабочей силы и революционизируют опыт сотрудников.


10. Оптимизация цепочки поставок на основе искусственного интеллекта: от предиктивности к прескриптивности

Роль искусственного интеллекта в управлении цепочкой поставок меняется от прогнозирующей (предиктивной) к предписывающей (прескриптивной). Предиктивная аналитика переходит в директивную аналитику, позволяющую компаниям не только предвидеть сбои, но и проактивно оптимизировать свои цепочки поставок в ответ. Это предвидение становится бесценным во взаимосвязанной глобальной экономике.

* * *

Будущее наступает быстрее, чем мы можем себе представить. Принять эти тенденции в области искусственного интеллекта – значит не просто идти в ногу со временем; речь идет о том, чтобы возглавить движение в будущее, где технологии будут служить человечеству.



За пределами хайпа: 10 основных принципов успеха ИИ

Омид Разави, старший вице-президент по работе с клиентами Alluxio

Смена парадигмы, вызванная появлением искусственного интеллекта в современном бизнесе и технологическом ландшафте – это революция. Потенциал ИИ для преобразования традиционных бизнес-моделей, оптимизации операций и стимулирования инноваций огромен. Но разобраться в его сложностях может быть непросто.

Организации должны понимать некоторые основополагающие принципы и придерживаться их, чтобы инициативы в области ИИ привели к устойчивому успеху. Давайте обсудим эти принципы.


1. Определите свою цель

Любая экспедиция начинается с карты и пункта назначения. Аналогично, ваше путешествие в мир ИИ должно начинаться с четко определенной цели. Какие конкретные задачи вы стремитесь решить с помощью ИИ? Идет ли речь об улучшении взаимодействия с клиентами, оптимизации цепочек поставок или о новых источниках дохода? Предварительная постановка четких целей гарантирует, что все последующие усилия будут соответствовать более широким бизнес-целям, способствуя целенаправленной стратегии ИИ.

Примеры:

  • Внедрение ИИ может повысить качество обслуживания пациентов за счет прогнозирования вспышек заболеваний и оптимизации распределения ресурсов в режиме реального времени в медицинских учреждениях.
  • Цель индустрии розничной торговли – использовать ИИ для получения персонализированных рекомендаций, чтобы повышать удовлетворенность клиентов
    и увеличивать продажи.


2. Выстраивайте сотрудничество

Сфера искусственного интеллекта обширна, она развивается ежедневно. Ни одна организация не может утверждать, что у нее есть ответы на все вопросы. Поэтому партнерство с инновационными стартапами, академическими исследователями и лидерами отрасли может быть бесценным. Такое сотрудничество открывает новые перспективы, дает разнообразный опыт и позволяет обмениваться знаниями. Опираясь на плечи как гигантов, так и остальных компаний, организации могут обойти распространенные подводные камни и упростить свой путь в области искусственного интеллекта.

Примеры:

  • Производственная компания сотрудничает с робототехническим стартапом для интеграции автоматизации, основанной на ИИ, в свои производственные процессы.
  • Платформа электронной коммерции сотрудничает с университетскими специалистами по обработке данных для разработки передовых алгоритмов рекомендаций.


3. Превосходите других в аналитике

Данные – сырье, на котором строится искусственный интеллект. Но данные в их необработанном виде сродни нерафинированному золоту. Пройдя через горнило аналитики, эти необработанные данные превращаются в полезную информацию. Освоение аналитики предполагает понимание источников данных, совершенствование методов сбора и использование сложных инструментов для расшифровки закономерностей. Искусственный интеллект играет ключевую роль в принятии бизнес-решений, поэтому опора на аналитику становится залогом успеха.

Примеры:

  • Банк использует расширенную аналитику для выявления необычных схем транзакций и потенциального мошенничества, анализируя данные о транзакциях клиентов в режиме реального времени.
  • Автопроизводитель использует аналитику для оптимизации производственной линии, прогнозируя отказы оборудования и планируя техническое обслуживание на основе данных датчиков.


4. Уделяйте приоритетное внимание гибкости архитектуры

Технологический ландшафт динамичен. Решения, которые актуальны сегодня, могут устареть завтра. Таким образом, создание гибкой ИТ-инфраструктуры имеет первостепенное значение. Эта гибкость выходит за рамки простого внедрения облачных технологий. Она включает в себя выбор правильных платформ, обеспечение функциональной совместимости и поддержание гибкости при развертывании. Гибкая архитектура также снижает зависимость от одного поставщика, гарантируя, что потребности организации всегда будут на первом месте.

Примеры:

  • Гибкая ИТ-инфраструктура позволяет финансовому учреждению интегрировать новые модели обнаружения мошенничества по мере его развития.
  • Медиа-компания быстро адаптируется к меняющимся предпочтениям зрителей благодаря гибкой архитектуре доставки контента на различных платформах.


5. Интегрируйте искусственный интеллект в рабочие процессы

ИИ должен расширять возможности человека, а не заменять их. Для этого необходимо разрабатывать решения ИИ так, чтобы они естественным образом вписывались в рабочие процессы организации. Когда инструменты и системы ИИ ощущаются как естественное продолжение текущих процессов, их легче внедрять и использовать в полной мере. Это приводит к минимальным сбоям в работе и максимальному повышению эффективности.

Примеры:

  • Колл-центр интегрирует чат-ботов на базе искусственного интеллекта, которые помогают сотрудникам справляться с рутинными запросами клиентов и позволяют им сосредоточиться на более сложных вопросах.
  • Искусственный интеллект интегрирован в процесс оформления заказа, чтобы рекомендовать клиентам дополнительные продукты, расширяя возможности перекрестных продаж.


6. Стремитесь к целостной трансформации

Возможности искусственного интеллекта применимы не только к одному или нескольким отделам; его преобразующий потенциал распространяется на всю организацию. Будь то отдел кадров, использующий ИИ для привлечения талантов, финансовое подразделение, использующее ИИ для прогнозной аналитики, или операционный отдел, внедряющий оптимизацию с помощью ИИ – выигрывают все. Придерживаясь целостного подхода, организации могут добиться всестороннего роста и инноваций.

Примеры:

  • Страховая компания применяет искусственный интеллект во всех своих подразделениях для обработки претензий, андеррайтинга и поддержки клиентов, чтобы создать более эффективную и ориентированную на клиента работу.
  • Искусственный интеллект оптимизирует маршруты логистической компании, складские операции и управление запасами, повышая общую эффективность цепочки поставок.


7. Поддерживайте эффективное управление

Как и любой мощный инструмент, ИИ нуждается в руководстве и надзоре. Эффективное управление включает в себя установление этических норм, обеспечение конфиденциальности данных, мониторинг решений ИИ на предмет предвзятости и приведение результатов ИИ в соответствие с ценностями организации. Организации укрепляют доверие и поощряют ответственные инновации, гарантируя, что внедрение искусственного интеллекта соответствует бизнес-целям и этическим соображениям.

Примеры:

  • Медицинское исследовательское учреждение, внедряющее искусственный интеллект для диагностики заболеваний, должно обеспечить регулярный аудит своих алгоритмов искусственного интеллекта для поддержания точности и предотвращения потенциальных предвзятостей в рекомендациях по лечению пациентов.
  • В правоохранительных органах прогностические полицейские системы, управляемые ИИ, должны подвергаться строгому надзору, чтобы исключить непропорциональное воздействие на конкретные сообщества и обеспечить соблюдение этических принципов.


8. Взращивайте экспертов

Тонкости ИИ требуют специальных знаний. Инвестирование в таланты – наем экспертов и повышение квалификации существующих команд – гарантирует, что стратегии в области ИИ будут эффективно реализовываться и развиваться в соответствии с меняющимся ландшафтом. Центры передового опыта служат сосредоточением знаний, исследований и практики, обеспечивая постоянное совершенствование в области ИИ.

Примеры:

  • Технологическая компания может создать центр передового опыта в области ИИ, где специалисты по данным и инженеры сотрудничают в рамках проектов по исследованию и разработкам.
  • Организация здравоохранения может организовать учебные программы для повышения квалификации своих сотрудников в области ИИ, чтобы медицинские работники могли эффективно использовать диагностические инструменты на базе ИИ.


9. Делайте постоянные инвестиции

Путь к ИИ – не спринт, а марафон. Постоянные инвестиции в капитал, таланты и время необходимы по мере развития технологий. Это гарантирует, что системы ИИ остаются актуальными, эффективными и соответствуют последним достижениям в этой области. Подлинная приверженность ИИ выходит за рамки первоначального внедрения, делая упор на постоянное совершенствование и рост.

Примеры:

  • Компания-разработчик программного обеспечения постоянно инвестирует в исследования и разработки в области искусственного интеллекта, регулярно обновляя своего виртуального помощника новыми функциями и возможностями, чтобы оставаться конкурентоспособной.
  • Розничная сеть выделяет бюджет на регулярные инвестиции в искусственный интеллект, что позволяет ей опережать конкурентов за счет внедрения новейших алгоритмов оптимизации запасов и инструментов анализа клиентов.


10. Способствуйте разнообразию данных

Система искусственного интеллекта хороша настолько, насколько хороши данные, на которых она обучена. Важно обеспечить разнообразие, полноту и высокое качество этих данных. Это означает получение данных из разных источников, их проверку на точность и обеспечение того, чтобы они представляли широкий спектр. Разнообразие данных приводит к созданию более надежных моделей искусственного интеллекта, минимизируя предвзятость и максимально расширяя возможности применения.

Примеры:

  • Платформа социальных сетей гарантирует, что ее алгоритмы искусственного интеллекта учитывают различные демографические данные пользователей и типы контента, чтобы предотвратить алгоритмическую предвзятость и создать более инклюзивный пользовательский опыт.
  • При автономном вождении обучение моделей искусственного интеллекта на данных из различных географических местоположений и погодных условий помогает повысить безопасность и надежность самоуправляемых транспортных средств.


Основы надежной стратегии ИИ

Преобразующий потенциал ИИ неоспорим. Однако путь к успеху ИИ сопряжен с трудностями. Десять изложенных принципов служат опорами, которыми организации руководствуются на этом пути. Их соблюдение гарантирует, что инициативы в области ИИ основаны на стратегии, этике и опыте. По мере того, как горизонты ИИ расширяются, а его роль в успехе организации становится все более заметной, эти основополагающие принципы останутся актуальными, направляя как новичков, так и ветеранов ИИ к устойчивому успеху.



Недостатки в коде ИИ сделают возможными новые атаки в 2024 году

Луис Коламбус, автор VentureBeat

Команды DevOps все больше полагаются на помощников по кодированию с искусственным интеллектом, чтобы повысить производительность за счет автоматизации задач кодирования. Но компания Forrester в своих прогнозах кибербезопасности, рисков и конфиденциальности на 2024 год предупреждает, что при этом только самые добросовестные проверяют конечный код на безопасность.

Исследовательская и консалтинговая компания прогнозирует, что непоследовательная практика соблюдения требований и управления в сочетании с большим количеством команд Devops, экспериментирующих с несколькими ИИ-помощниками по кодированию одновременно для повышения производительности, приведет к появлению дефектного кода ИИ, ответственного как минимум за три публично признанных нарушения в 2024 году. Forrester также предупреждает, что ошибки в коде искусственного интеллекта будут представлять угрозу безопасности API.


Ассистенты с искусственным интеллектом переосмысливают теневые ИТ

49% специалистов в области бизнеса и технологий, знакомых с помощниками по программированию с использованием искусственного интеллекта, говорят, что их организации тестируют, внедряют или уже внедрили их в своих организациях. Gartner прогнозирует, что к 2028 году 75% корпоративных инженеров-программистов будут использовать ИИ-помощников по программированию, по сравнению с менее чем 10% в начале 2023 года.

Руководители Devops рассказывают, что часто в командах используется несколько ИИ-ассистентов по кодированию, поскольку необходимость создавать большой объем кода растет с каждым днем.

Сокращение сроков выполнения более сложного кодирования в сочетании с 40 различными доступными помощниками по кодированию приводят к появлению новой формы теневых ИТ, когда команды Devops переключаются с одного интеллектуального помощника на другого, чтобы увидеть, какой из них обеспечивает максимальную производительность для той или иной задачи. Предприятия с трудом справляются с запросами своих Devops-команд на новые инструменты для кодирования, одобренные для использования в масштабах всей компании.


В 2024 году перед CISO встанет сложная задача поиска баланса

Прогнозы Forrester в области кибербезопасности, рисков и конфиденциальности предсказывают сложный год для руководителей по информационной безопасности, которым необходимо будет найти баланс между повышением производительности с помощью использования генеративного ИИ, и обеспечением соответствия требованиям и безопасности разрабатываемых моделей ИИ и машинного обучения.

Правильное соблюдение нормативных требований будет иметь важное значение для защиты интеллектуальной собственности – единственного актива, который никто не хочет подвергать риску, несмотря на постепенное увеличение выгоды, которое обеспечивает генеративный ИИ.

То, насколько хорошо руководители подразделений информационной безопасности и их команды смогут объединить инновации, соответствие требованиям и управление, чтобы обеспечить своим компаниям конкурентное преимущество, в 2024 году будет поддаваться измерению больше, чем в любой предыдущий год. Повышение производительности генеративного ИИ уравновешивается рисками, и потребность в надежных механизмах защиты станет ключевой проблемой, с которой, вероятно, столкнется каждый CISO в следующем году.


Цель: добиться инновационных преимуществ ИИ при одновременном снижении рисков

Прогнозы Forrester в области кибербезопасности, рисков и конфиденциальности на 2024 год ориентируют каждую организацию на достижение больших инновационных успехов в области искусственного интеллекта при одновременном снижении рисков, связанных с человеческим фактором и нарушениями кода. В совокупности эти прогнозы отражают, насколько важно в первую очередь обеспечить соответствие требованиям, управление и защитные механизмы для новых моделей ИИ и машинного обучения, чтобы повышение производительности за счет генеративного кодирования на основе ИИ и инструментов devops приносило наибольшую выгоду при минимальном риске.

«В 2024 году, когда организации примут императив генеративного ИИ, управление и подотчетность станут важнейшими компонентами для этичного использования ИИ и соответствия нормативным требованиям», – отмечают в Forrester. «Это позволит организациям безопасно перейти от экспериментов к внедрению новых технологий на основе искусственного интеллекте», – говорится в отчете.

Данные Forrester за 2023 год показывают, что 53% лиц, принимающих решения в области ИИ, чьи организации внесли изменения в политику в отношении генеративного ИИ, развивают свои программы управления для поддержки вариантов использования ИИ.


Какие еще прогнозы на 2024 год дает Forrester?

Число атак социальной инженерии будет увеличиваться по мере того, как злоумышленники будут находить новые способы использования генеративного ИИ

FraudGPT – только начало того, как злоумышленники будут использовать генеративный ИИ и переходить в наступление. В 2024 году количество атак с использованием социальной инженерии возрастет с 74% от всех попыток взлома до 90%. Эксперты Forrester предупреждают, что сегодня человеческий фактор важен как никогда ранее.

Это отрезвляющая новость для отрасли, где некоторые из самых разрушительных атак программ-вымогателей в 2023 году начались с телефонного звонка.

Существующие подходы к обучению людей основам безопасности не работают. В Forrester подчеркивают, что необходим подход к изменению поведения, основанный на данных, который количественно оценивает риск, связанный с человеком, а также обеспечивает обратную связь по обучению сотрудников в режиме реального времени и устраняет пробелы в восприятии, которые могут возникнуть у них при выявлении угроз.

«Технологии создаются людьми и для людей. Уже недостаточно обвинять «человеческий фактор» в нарушениях безопасности. Необходимо использовать детализированный, логический и основанный на периметре контроль безопасности и идентификации; осуществлять эффективное управление, создавая «асфальтированные дороги», чтобы люди могли делать безопасные и простые вещи; шаблонизировать среду и использовать эфемерность в качестве преимущества в плане безопасности; замечать аномалии для интеллектуального уточнения разрешений. Все эти действия приводят к уменьшению количества записей о человеческих ошибках», – говорит директор по информационной безопасности Lacework Мерритт Бэр.

Бэр отмечает, что «ошибаться свойственно человеку; обеспечивать безопасность окружающей среды – задача для практиков».


Операторы киберстрахования ужесточат свои стандарты, относя двух поставщиков технологий к категории высокого риска

Объединение большего объема телеметрических данных в режиме реального времени и более мощных аналитических инструментов генеративного ИИ для их анализа обеспечит страховым компаниям прозрачность, которая уже давно необходима им для снижения рисков.

В отчете Forrester отмечается, что страховые компании также получат больше информации от служб безопасности и технологических подразделений и больше информации, основанной на данных, включая судебно-медицинскую экспертизу страховых случаев.

Учитывая растущее число и серьезность массовых нарушений, подобных MOVEit, Forrester прогнозирует, что поставщики систем безопасности будут анализироваться с помощью оценки рисков и расчетов, которые также будут использоваться для расчета взносов их клиентов, желающих получить страховое покрытие.

Ожидайте, что приложение на базе ChatGPT будет оштрафовано за правильное обращение с личной информацией (PII)

В этом прогнозе подразумевается, насколько уязвимы системы идентификации и управления доступом (IAM) для атак. Active Directory является одной из самых популярных целей любой атаки, основанной на идентификации.

Ежедневно атакам подвергаются около 95 миллионов учетных записей Active Directory, поскольку 90% организаций используют платформу идентификации в качестве основного метода аутентификации и авторизации пользователей.

Джон Толберт, директор по исследованиям в области кибербезопасности и ведущий аналитик KuppingerCole, озвучил свое мнение в отчете Identity & Security: Анализ современного ландшафта угроз: «Компоненты Active Directory являются высокоприоритетными целями в хакерских кампаниях, и, обнаружив их, злоумышленники могут создавать дополнительные леса и домены Active Directory и устанавливать доверительные отношения между ними, чтобы облегчить доступ со стороны. Они также могут создавать федеративное доверие между совершенно разными доменами».

Эксперты Forrester отмечают, что OpenAI продолжает подвергаться пристальному контролю со стороны регулирующих органов в связи с продолжающимся расследованием в Италии, а юристы в Польше рассматривают новый судебный иск в связи с несколькими потенциальными нарушениями GDPR. В результате Европейский совет по защите данных создал целевую группу для координации правоприменительных действий против ChatGPT от OpenAI.

В США FTC также ведет расследование в отношении компании. В то время как OpenAI располагает техническими и финансовыми ресурсами для защиты от регулирующих органов, другие сторонние приложения, работающие под управлением ChatGPT, их не имеют.



Мировые лидеры борются за регулирование будущего ИИ

Гэри Гроссман, старший вице-президент по технологической практике Edelman

Нет никаких сомнений в том, что темпы развития искусственного интеллекта ускорились за последний год. Благодаря стремительному развитию технологий, идея о том, что искусственный интеллект однажды может стать умнее людей, превратилась из научной фантастики в правдоподобную ближайшую реальность.

Джеффри Хинтон, лауреат премии Тьюринга, пришел к выводу, что время, когда искусственный интеллект сможет стать умнее людей, наступит не через 50-60 лет, как он первоначально думал, а, возможно, к 2028 году. Кроме того, соучредитель DeepMind Шейн Легг недавно заявил, что, по его мнению, вероятность достижения общего искусственного интеллекта (AGI) к 2028 году составляет 50 на 50.

Под AGI понимается момент, когда системы искусственного интеллекта будут обладать общими когнитивными способностями и смогут выполнять интеллектуальные задачи на уровне человека или выше, а не будут сфокусированными только на выполнении конкретных функций, как это было до сих пор.

Такая возможность в ближайшем будущем вызвала активные дебаты об искусственном интеллекте, в частности об этических последствиях и его регулировании. Эти дебаты переместились из академических кругов в мировую политику, побудив правительства, лидеров отрасли и неравнодушных граждан заняться вопросами, которые могут повлиять на будущее человечества.


Дискуссия об экзистенциальных рисках искусственного интеллекта

Вряд ли существует всеобщее согласие в отношении каких-либо прогнозов относительно искусственного интеллекта, кроме вероятности того, что впереди нас ждут большие изменения. Тем не менее, дебаты породили предположения о том, как и в какой степени разработки в области искусственного интеллекта могут пойти не по плану.

Например, во время слушаний в Конгрессе еще в мае 2023 года генеральный директор OpenAI Сэм Альтман прямо высказал свое мнение об опасностях, которые может вызвать искусственный интеллект. «Я думаю, что если эта технология пойдет не так, как надо, то и все вокруг может пойти совсем не так. И мы хотим открыто заявить об этом. Мы хотим сотрудничать с правительством, чтобы этого не произошло».

Альтман не одинок в своем мнении. «Снижение риска вымирания в результате использования искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война», – говорится в заявлении, опубликованном в конце мая некоммерческой организацией Center for AI Safety. Его подписали сотни людей, включая Альтмана и 38 сотрудников подразделения искусственного интеллекта DeepMind компании Google. Эта точка зрения была высказана на пике думеризма, в отношении ИИ, когда опасения по поводу возможных экзистенциальных рисков были наиболее масштабными.

Безусловно, по мере приближения к 2028 году рассуждения на эту тему и вопросы о том, насколько мы готовы к потенциальным рискам, вполне обоснованы. Однако не все считают, что риски настолько высоки, по крайней мере, не те экстремальные экзистенциальные риски, которые мотивируют так много разговоров о регулировании.


Скепсис и озабоченность в отрасли

Эндрю Нг, бывший глава Google Brain, – один из тех, кто возражает против сценариев конца света. Недавно он заявил, что «плохая идея о том, что ИИ может заставить нас вымереть», сливается с «плохой идеей о том, что хороший способ сделать ИИ более безопасным – ввести обременительные лицензионные требования» к индустрии ИИ.

По мнению Нг, это способ для крупных технологических компаний обеспечить контроль со стороны регулирующих органов, чтобы гарантировать, что альтернативы с открытым исходным кодом не смогут конкурировать.

Захват регулирования – концепция, при которой регулирующий орган проводит политику, благоприятствующую отрасли в ущерб более широким общественным интересам, в данном случае с нормативными актами, которые слишком обременительны или дорогостоящи для малых предприятий.

Главный специалист Meta по искусственному интеллекту Ян Лекун, который, как и Хинтон, является лауреатом премии Тьюринга, пошел еще дальше. Он заявил, что Альтман, генеральный директор Anthropic Дарио Амодей и генеральный директор Google DeepMind Демис Хассабис участвуют в «массированном корпоративном лоббировании», продвигая сценарии конца света из-за ИИ, которые являются «абсурдными».

Конечным результатом этого лоббирования, по его мнению, станут правила, которые эффективно ограничат проекты ИИ с открытым исходным кодом из-за высоких затрат на соблюдение правил, фактически оставив лишь «небольшое число компаний, которые будут контролировать ИИ».


Регулирование

Тем не менее, переход к регулированию ускоряется. В июле Белый дом объявил о добровольном обязательстве OpenAI и других ведущих разработчиков искусственного интеллекта, включая Anthropic, Alphabet, Meta и Microsoft, которые обязались создать способы проверки своих инструментов на безопасность перед публичным выпуском. В сентябре к этому обязательству присоединились еще несколько компаний, в результате чего их общее число достигло 15.

Белый дом издал масштабный исполнительный указ о «Безопасном и заслуживающем доверия искусственном интеллекте», направленный на сбалансированный подход между беспрепятственным развитием и строгим надзором.

Как сообщает Wired, приказ направлен как на содействие более широкому использованию ИИ, так и на то, чтобы держать коммерческий ИИ на коротком поводке, с десятками директив, которые федеральные агентства должны выполнить в течение следующего года.

Эти директивы охватывают целый ряд тем, от национальной безопасности и иммиграции до жилья и здравоохранения, а также вводят новые требования к компаниям, занимающимся искусственным интеллектом, по предоставлению результатов тестов безопасности федеральному правительству.

Несмотря на то, что законодательство не является неизменным – следующий президент может просто отменить его, если захочет, – это стратегическая уловка, направленная на то, чтобы поставить США в центр глобальной гонки с высокими ставками за влияние на будущее управления искусственным интеллектом.

Райан Хит из Axios отмечает, что «этот подход – скорее кнут, чем пряник, но он может вывести США вперед зарубежных конкурентов в гонке за регулирование ИИ». В своем информационном бюллетене Кейси Ньютон говорит, что «они накопили достаточно опыта на федеральном уровне для того, чтобы написать широкомасштабный, но детализированный исполнительный указ, который должен смягчить, по крайней мере, некоторый вред, оставляя при этом место для исследований и предпринимательства».


Политический «Кубок мира» в области искусственного интеллекта

Не только США предпринимают шаги по формированию будущего искусственного интеллекта. Помимо США, G7 также объявила о принятии 11 необязательных принципов ИИ, призвав «организации, разрабатывающие передовые системы ИИ, взять на себя обязательства по применению Международного кодекса поведения».

Как и указ США, кодекс G7 разработан для содействия созданию «безопасных и заслуживающих доверия систем искусственного интеллекта». Однако, как отмечает VentureBeat, «разные юрисдикции могут применять свои собственные уникальные подходы к реализации этих руководящих принципов».

В Великобритании прошел саммит по безопасности искусственного интеллекта, который собрал правительства, экспертов-исследователей, группы гражданского общества и ведущие компании в области искусственного интеллекта со всего мира, чтобы обсудить риски, связанные с искусственным интеллектом, и способы их снижения.

Особое внимание на саммите было уделено моделям «передового ИИ», наиболее продвинутым большим языковым моделям (LLMs) с возможностями, которые приближаются к производительности человеческого уровня или превосходят ее во множестве задач, в том числе разработанным Alphabet, Anthropic, OpenAI и рядом других компаний.

Как сообщает New York Times, итогом этого конклава стала «Декларация Блетчли», подписанная представителями 28 стран, включая США и Китай, в которой предупреждалось об опасностях, исходящих от самых передовых систем искусственного интеллекта. Позиционируемая правительством Великобритании как «первое в мире соглашение» по управлению наиболее рискованными, по их мнению, формами ИИ, декларация добавляет: «Мы полны решимости работать вместе, чтобы обеспечить ориентированный на человека, заслуживающий доверия и ответственный ИИ».

Однако в соглашении не были сформулированы какие-либо конкретные политические цели. Тем не менее Дэвид Мейер из Fortune оценил это как «многообещающее начало» для международного сотрудничества по теме, которая стала серьезным вопросом только в прошлом году.


Баланс между инновациями и регулированием

По мере приближения к горизонту, очерченному такими экспертами, как Джеффри Хинтон и Шейн Легг, становится очевидно, что ставки на развитие искусственного интеллекта растут. От Белого дома до G7, ЕС, Организации Объединенных Наций, Китая и Великобритании нормативно-правовая база становится одним из главных приоритетов. Эти первые усилия направлены на снижение рисков при одновременном стимулировании инноваций, хотя остаются вопросы относительно их эффективности и беспристрастности при фактическом внедрении.

Совершенно очевидно, что искусственный интеллект – проблема глобального значения. Следующие несколько лет будут иметь решающее значение для преодоления сложностей этой двойственности: необходимо найти баланс между перспективами позитивных инноваций, способных изменить жизнь, таких как более эффективные методы лечения и борьба с изменением климата, и необходимостью соблюдения этических и социальных гарантий.

Наряду с правительствами, бизнесом и академическими кругами, массовая активность и вовлечение граждан все чаще становятся жизненно важными силами в формировании будущего искусственного интеллекта.

Это коллективный вызов, который определит не только технологическую индустрию, но и, возможно, будущий курс человечества.



Аргументы в пользу отказа от генеративного ИИ

Дэвид Линтику, автор InfoWorld
Перевод Бориса Славина

Много говорят, но не так много существует реальных реализаций генеративного ИИ в облаке. Облако предлагает несколько преимуществ для реализации генеративных моделей искусственного интеллекта, и мы подробно обсудим это.

Короче говоря, облако обеспечивает масштабируемую вычислительную мощность, гибкость и доступность, позволяя предприятиям в полной мере использовать потенциал генеративного искусственного интеллекта. Облачная инфраструктура обеспечивает беспрепятственный доступ к обширным данным обучения. Хотя это может быть дорогостоящим, это также облегчает разработку и уточнение модели. Кроме того, это обеспечивает более быстрое и эффективное обучение модели и логический вывод, делая генеративный ИИ более доступным для более широкого круга пользователей.


Более медленное внедрение, чем ожидалось

Основываясь на том, что мы видим в прессе, можно подумать, что существует огромная группа по созданию искусственного интеллекта. Однако реальность несколько иная. Несмотря на очевидные преимущества генеративного искусственного интеллекта в облаке, я не вижу в ближайшее время масштабных изменений в том объеме, в котором, по мнению многих, они происходят. И на это есть несколько веских причин:

Серьезной проблемой является нехватка навыков. Внедрение генеративных моделей искусственного интеллекта в облаке требует опыта машинного обучения, облачных вычислений и разработки данных, которого нет на уровне, необходимом для успешного использования этой технологии. Предприятиям нужны более квалифицированные специалисты, которые обладают как глубоким пониманием технологии генеративного искусственного интеллекта, так и того, как она может принести пользу бизнесу. Таким образом, большинство предприятий обсуждают генеративный ИИ, но пока ничего не предпринимают.

Генеративный искусственный интеллект и ИИ в целом – это не то, что вы можете освоить за выходные. Требуются месяцы на понимание данных, реализацию модели и настройку, а также на то, чтобы понять, когда эта чертова штука работает правильно.

Я аплодирую тем, кто откладывал внедрение до тех пор, пока не приобретет необходимые навыки самостоятельно; из опыта облачных развертываний мы узнали, что нехватка квалифицированных архитекторов и разработчиков обычно приводит к провалу проектов. Тем не менее, несколько предприятий продвигаются вперед без необходимых навыков. Мы услышим об этих неудачах через год, когда наступит неизбежное похмелье генеративного ИИ.

Данные еще не готовы. Генеративные модели искусственного интеллекта требуют высококачественных данных для изучения и получения значимых результатов, и большинство предприятий пока не справляются с этим. Сбор, очистка и предварительная обработка данных являются серьезной проблемой, особенно в сочетании с разнородными источниками данных, проблемами конфиденциальности и правилами управления данными.

Организации должны инвестировать время и ресурсы в обеспечение доступности и качества данных, прежде чем генеративный искусственный интеллект в облаке сможет стать полезным ресурсом. Это требует больше времени и денег, чем понимают большинство предприятий. Продвигаться вперед, не имея дела с данными, – еще один верный способ потерпеть неудачу, и лучше отложить внедрение генеративного искусственного интеллекта в облаке до тех пор, пока эта проблема не будет решена.

Устанавливать политику сложно. Как вы защищаетесь от предвзятости, из-за которой на вас могут подать в суд? Создаете ли вы проблемы с регулированием данных, когда берете нерегулируемые данные, используя генеративный искусственный интеллект, и выводите регулируемые данные наружу?

Использование генеративного искусственного интеллекта в облаке требует больших затрат, особенно если оно недостаточно оптимизировано. Организации должны тщательно оценить облачные ресурсы, необходимые для обучения модели и заключения выводов, чтобы найти баланс между стоимостью и производительностью. Большинство из них захотят воспользоваться услугами облачных вычислений, что приведет к существенному перерасходу средств и незначительной отдаче от бизнеса. Мы допустили эти ошибки с большинством облачных инноваций в производстве, включая бессерверные вычисления и контейнерную оркестровку; можно с уверенностью сказать, что мы сделаем то же самое и здесь, если не будем осторожны.


Чего ожидать?

Если мы собираемся медленно внедрять генеративный ИИ в облаке, когда он проявится на уровне, который приведет в движение стрелку? Для большинства это займет гораздо больше времени, чем ожидалось. Я подозреваю, что в 2024 году мы увидим много подтверждений концепции, демонстрирующих возможности этой технологии.

Однако POCs заходят лишь настолько далеко, чтобы вернуть ценность бизнесу. Для этого вам нужны производственные системы, которые выполняют важные задачи, такие как повышение качества обслуживания клиентов, интеллектуальная автоматизация цепочки поставок, определение фактического риска страхования водителя или диагностика пациента с более значительным объемом цифровых знаний. То, что приносит деньги.

Я подозреваю, что мы не увидим большой пользы в течение трех или четырех лет – то, о чем не упоминается в технической прессе, потому что у нас есть ADD на рынке технологий (видимо, имеется в виду Artifact Driven Development – прим. переводчика). Нас не интересуют такие далекие вещи. Однако генеративный ИИ – это серьезный сдвиг в том, как мы создаем системы. Я предпочел бы подождать и сделать все правильно, чем торопиться с чем-то и потерпеть неудачу или, что еще хуже, нанести ущерб бизнесу. Большинство ИТ-руководителей могут посчитать оправданным агрессивные действия, учитывая ажиотаж. Скорее всего, через несколько лет они будут искать работу. Не будьте такими людьми.

Ключевые слова: генеративный ИИ, ИТ-руководители, облачные технологии, регулирование ИИ, модели искусственного интеллекта.

Источник: expinet.ru

 

 


Подпишитесь на журнал
Купите в Интернет-магазине

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №02 (135) 2024г.
Выпуск №02 (135) 2024г. Выпуск №01 (134) 2024г.
Вакансии на сайте Jooble

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика