Прогнозы кибербезопасности на 2019 год: искусственный интеллект

Прочитано: 427 раз(а)


Чаты-роботы, управляемые ИИ, становятся мошенниками. В 2019 году киберпреступники и хакеры, использующие «черную шляпу», будут создавать злостных чатов-роботов на законных сайтах, чтобы социальным путем заставить неосознанных жертв щелкать вредоносные ссылки, загружать файлы, содержащие вредоносное ПО, или делиться личной информацией.

Кэндис Уорли, главный технический стратег, McAfee

Есть множество решений, которые должны быть приняты, когда компания расширяет использование ИИ. Существуют последствия для регулирования конфиденциальности, но есть также правовые, этические и культурные последствия, которые требуют создания специализированной роли в 2019 году с исполнительным контролем над использованием ИИ. В некоторых случаях ИИ демонстрирует неблагоприятное поведение, такое как расовое профилирование, несправедливое отрицание ссуд физических лиц и неправильное определение базовой информации о пользователях. CAO и CDO должны будут контролировать обучение ИИ, чтобы гарантировать, что решения ИИ не повредят. Кроме того, ИИ должен быть обучен тому, как справляться с реальными человеческими дилеммами и определять приоритеты правосудия, ответственности, ответственности, прозрачности и благополучия, а также выявлять взломы, эксплуатацию и неправильное использование данных.

Джейсон Ребхольц, старший директор, Gigamon

Перенос принятия решений на программное обеспечение ИИ. Современные решения в области безопасности в основном полагаются на сигнатурные обнаружения («я видел это раньше, и я знаю, что это плохо») и аналитические обнаружения («этот тип деятельности заставляет меня верить, что эта активность подозрительный»). Затем аналитик проверяет действие, чтобы выполнить базовый анализ сортировки, чтобы определить, является ли это чем-то действительно вредоносным или просто ложным срабатыванием. С появлением ИИ основные решения будут загружены в программное обеспечение. Хотя это не замена аналитику, он предоставит им больше времени для выполнения более сложных решений и анализа, который нелегко заменить ИИ.

Мори Хабер, технический директор, и Брайан Чаппелл, ст. директор по архитектуре предприятий и решений, BeyondTrust

ИИ в атаке. Скайнет становится самоосознанным! В 2019 году будет расти число атак, скоординированных с использованием искусственного интеллекта и машинного обучения. ИИ будет анализировать доступные варианты использования и разрабатывать стратегии, которые приведут к увеличению количества успешных атак. ИИ также сможет извлекать информацию, собранную в результате успешных взломов, и включать ее в новые атаки, потенциально обучаясь тому, как определять стратегии защиты по образцу доступных эксплойтов. Эта эволюция может потенциально привести к атакам, от которых значительно труднее защищаться.

Malwarebytes Labs Team

Искусственный интеллект будет использоваться при создании вредоносных исполняемых файлов. Хотя идея использования вредоносного искусственного интеллекта в системе жертвы является чистой научной фантастикой, по крайней мере, в течение следующих 10 лет, вредоносное ПО, которое модифицируется, создается и взаимодействует с ИИ, является очень опасной реальностью. ИИ, который связывается с скомпрометированными компьютерами и следит за тем, что и как определенное вредоносное ПО обнаружено, может быстро развернуть контрмеры, чтобы создать новое поколение вредоносного ПО. Контроллеры AI позволят вредоносной программе, созданной для изменения собственного кода, избежать обнаружения в системе, независимо от того, какое средство безопасности установлено. Представьте себе вредоносную инфекцию, которая действует почти как «Борг» из Star Trek, приспосабливая и приспосабливая свои методы атаки и защиты на лету в зависимости от того, с чем они сталкиваются. Поэтому необходимо устанавливать защиту от парсинга и защиту от ботов на страничке в Интернет, особенно если это страницы для ведения бизнеса.

Марк Цюрих, старший директор по технологиям, Synopsys

Определенно, есть волнение и надежда на то, что ML / AI может сделать для безопасности программного обеспечения и кибербезопасности, в частности. Важным аспектом кибербезопасности является корреляция данных и аналитика. Способность находить отдельные угрозы, проводить кампании по угрозам и выполнять атрибуцию субъектов угроз на основе нескольких разнородных источников данных (т. Е. Находить иголки в стогах сена) — большая часть игры. ML / AI предоставляет возможность увеличить скорость, масштаб и точность этого процесса посредством моделирования данных и распознавания образов. Тем не менее, многие статьи, которые я читал на эту тему, выражают скептицизм и обеспокоенность тем, что компании будут обмануты ложным чувством безопасности, что их эффективность обнаружения приемлема посредством применения ML / AI, когда это может на самом деле не быть. дело. Реальная ситуация выглядит так, что потребуется больше времени и инвестиций для оттачивания моделей данных и шаблонов, чтобы сделать ML / AI высокоэффективной технологией в области безопасности программного обеспечения и кибербезопасности. Мы должны ожидать, что крупные компании продолжат вкладывать средства в эту технологию, а начинающие компании, рекламирующие возможности ОД / ИИ, продолжат развиваться в 2019 году. Однако может пройти еще несколько лет, пока настоящее обещание ОД / ИИ не будет полностью реализовано. понял.

Ари Вейль, глобальный вице-президент по маркетингу продуктов и промышленности, Akamai

Разочарование по поводу чрезмерных обещаний ИИ и ОД будет расти в условиях более длительного времени, чтобы ценить. Продавцы участвовали в маркетинговой гонке вооружений, чтобы использовать термины «Искусственный интеллект» (AI) и «Машинное обучение» (ML). В 2019 году компании начнут понимать, что текущие возможности технологии могут решать простые, рутинные проблемы, которые являются шумными, но менее ценными для бизнеса, но оставляют индивидуальную логику и сложные примеры для решения отдельным лицам. Независимо от того, является ли катализатор инструментами судебной экспертизы, которые не могут обнаружить расширенные угрозы до тех пор, пока не будет нанесен значительный ущерб, или программным обеспечением для мониторинга и аналитики, которое не может обнаружить основную причину проблемы в сложной среде развертывания, отрасль вновь осознает ценность развивающихся специалистов. против покупки интеллекта.

Гилад Пелег, генеральный директор SecBI

ИИ будет усиливать кибератаки все больше и больше.  На самом деле, разумно предположить, что армии хакеров ИИ будут иметь большее, более быстрое проникновение с большей автоматизацией, что позволит хакерам добиться большего успеха в выполнении кибератак. Cyberdefense должен искать AI для более быстрой аналитики, необходимой для обнаружения вредоносных действий. С помощью машинного обучения и искусственного реагирования группы безопасности могут автоматизировать сортировку и расстановку приоритетов, одновременно снижая количество ложных срабатываний до 91%. Предприятия будут искать инновационные решения, которые позволят им опередить следующую неизвестную угрозу. Они не могут просто посмотреть, что у них есть, и просто обновить. Они также не могут полагаться на собственные решения. Они требуют готовых автоматических решений на основе ИИ.

Джейсон Ребхольц, старший директор, Gigamon

Автоматизация и ИИ играют большую роль. С недавним толчком к машинному обучению, искусственному интеллекту и автоматизации, индустрия безопасности увидит значительный толчок и, что более важно, опору на эту технологию. Организации могут попытаться или рассмотреть вопрос об увеличении или замене аналитиков безопасности для этих технологий. Когда мы оцениваем дефицит талантов в области безопасности сейчас, это может показаться привлекательным, но это может только увеличить разрыв в знаниях, поскольку инструменты становятся более специализированными, маркетинговые кампании становятся более неоднозначными, а предположения о том, какие продукты защищают от раздувания.

Малкольм Харкинс, главный специалист по безопасности и трасту, Cylance

Технология на основе AI будет отличать конфиденциальные данные от конфиденциальных. В настоящее время анализ данных для определения того, что является чувствительным, а не нечувствительным, выполняется вручную. Пользователи должны сами классифицировать данные, но пользователи ленивы. В 2019 году технология, основанная на искусственном интеллекте, получит возможность узнавать, что является чувствительным, и автоматически классифицировать его. Это развитие потребует более тщательного рассмотрения того, как управлять этими данными и, кроме того, как их контролировать.

Раджарши Гупта, глава ИИ в Avast:

Искусственный интеллект будет играть важную роль в прекращении практики, известной как фишинг-клон, когда злоумышленник создает почти идентичную копию законного сообщения, чтобы обманом заставить людей думать, что это реально. Письмо отправляется с адреса, похожего на законного отправителя, и тело сообщения выглядит так же, как и предыдущее сообщение; единственное отличие состоит в том, что вложение или ссылка в сообщении были заменены вредоносными. Я предсказываю, что ИИ станет эффективным в борьбе с этими фишинговыми атаками путем обнаружения недолговечных веб-сайтов, созданных для фишинга. ИИ может двигаться быстрее, чем традиционные алгоритмы, когда идентифицирует поддельные сайты двумя способами:

1) путем точного определения доменов, которые являются новыми и подозрительными, и

2) с помощью визуального определения соответствия макетов фишинговых страниц популярным сайтам.

Прогнозы кибербезопасности на 2019 год: искусственный интеллект



Новости партнеров