Друг реальный или враг виртуальный?
Мировая паутина. Чем опасен искусственный интеллект
С каждым днём понятие «искусственный интеллект» всё активнее входит в нашу жизнь. ИИ советует, как лучше одеваться, полезно питаться и как составлять план действий на неделю. Готов ответить на любой наш вопрос. Некоторым из нас общение с ИИ заменило разговоры с живыми людьми.
Но у этой медали есть и негативная сторона. Какая? О проблемах, которые уже создаёт нам искусственный интеллект, мы поговорили с директором школы информационной безопасности «Код красный 19» Дмитрием Черных.
— Дмитрий, ваша работа связана с устранением рисков в сфере информационной безопасности. А она теперь неразрывно связана с искусственным интеллектом. Какие проблемы привнёс он в нашу жизнь?
— Давайте начнём с того, что ИИ создавался как технология, способная существенным образом улучшить жизнь человека. Как и интернет, кстати. Он тоже в своё время задумывался как большая библиотека по обмену данными, куда каждый мог бы обратиться в любое время и из любой точки мира.
— Но превратился интернет в нечто иное….
— Да. В этой технологии со временем всплыло множество побочных эффектов. Таким же образом ситуация обстоит и с искусственным интеллектом. Помните, несколько лет назад на электронную почту стали массово приходить письма от мошенников с предложением вступить в наследство, которое оставил вам дядюшка-миллионер, внезапно скончавшийся на другом конце Земли? Кто-то на это покупался. Но большинство видели, что письма написаны с ошибками, коряво построенными фразами на русском. Уши заказчика становились видны почти сразу. Так вот, эта технология мошенничества не умерла. ИИ вывел её на новый уровень.
— Как?
— Он теперь составляет идеальные письма на любых языках. Они грамотно сформулированы, в них нет орфографических и грамматических ошибок. Тексты выстроены в нужной заказчику стилистике. И степень доверия к таким мошенническим письмам уже находится на совсем другом уровне. Вот пример того, как ИИ несёт нам совсем не благо. С его помощью создаются и фишинговые сайты (мошеннические сайты-клоны. — В.Л.).
— Искусственный интеллект и фишинг вывел на новый уровень?
— Да. Этакий фишинг 2.0. С появлением сервисов, использующих большие языковые модели, появилась возможность генерировать идеально написанные персонализированные письма на любом языке.
— Но ведь не только идеальными письмами от мошенников ИИ портит нам жизнь. Он ведь может и вредоносное программное обеспечение создавать?
— Это работает несколько иначе. ИИ может искать уязвимости в коде отдельных сайтов, программ и компьютерных игр. Загружает мошенник код программы в ИИ и просит провести его анализ на наличие пробелов и ошибок. Удобная функция, если использовать её во благо. ИИ легко и быстро выполняет эту задачу. Но затем в выявленные им уязвимости программы злоумышленник встраивает вредоносное программное обеспечение. Вы ставите программу с зашитой в неё подпрограммой на свой компьютер, и она начинает собирать все ваши персональные данные, читать переписку в мессенджерах и передавать всё мошенникам в режиме онлайн. В особой группе риска находятся подростки. Игры они часто качают с пиратских сайтов, с торрентов. А в них уже вшиты вредоносные программы. Вот ещё один пример того, как ИИ помогает красть наши персональные данные, а затем с их помощью и наши деньги.
— А разработчики ИИ не вшивают в него ограничения, чтобы нельзя было использовать их продукт во вредоносных целях?
— Вшивают. Это называется «красные флаги», но они не сильно помогают. Нельзя, например, запросить и получить у ИИ инструкцию по созданию бомбы. Такой запрет прямо прошит в код искусственного интеллекта. Но запрет можно довольно легко обойти. И обвинять в этом ИИ либо разработчиков искусственного интеллекта некорректно. Не их вина, что возможности системы используют не во благо, а во вред.
— Кто-то скажет, что всё можно решить, просто отрегулировав законодательство...
— Возможно, что через несколько лет ИИ сам научится различать сложные схемы попыток его использования в негативных целях. А законодательные поправки, о которых вы говорите, не особо помогут. Ведь у разных стран разные модели искусственного интеллекта. И то, что можно запретить законом в одной стране, в другой будет совершенно законным. И синхронизировать в этой сфере законодательные запреты в текущей международной ситуации, сделать их всемирными — из разряда чего-то нереального.
— Но когда-то мир вынужден будет к этому прийти.
— Когда-то — да. Но когда это будет? Конкретных сроков сейчас не назвать.
— Чем ещё опасен для нас ИИ?
— Дипфейками и синтезом голосов наших близких и знакомых. Страшная тема, на самом деле. Раньше, чтобы создать искусственное видео, в специальную программу нужно было загрузить от 100 до 500 тысяч фото и видеороликов с конкретным человеком. А сейчас процесс поставлен на поток. И искусственному интеллекту хватает уже от 10 до 50 тысяч фото и видео, чтобы создать из них дипфейк. Во многих сервисах ИИ, заточенных под это, первые пять попыток получения таких картинок и роликов предоставляют бесплатно. Мошенники активно такой функцией пользуются. Им даже не надо платить и оставлять цифровой след в виде банковских реквизитов. В 2023 году был случай, когда вся Америка встала на уши из-за видео, в котором бывший президент Барак Обама ругал Дональда Трампа. И многие тому видео поверили. А это был в чистом виде дипфейк, который решал политическую задачу. Таких историй теперь очень много.
— Америка далеко. А в Хакасии что-то подобное происходит?
— К сожалению, происходит. Мне директор одной из наших школ рассказала, что ей позвонил сын. Точнее, она была уверена, что звонит её сын. Потому что номер был его, голос его и даже языковые маркеры, с помощью которых они определяют друг друга. Просил занять денег. И она почти перевела. Просто решила потом перезвонить и выяснить, зачем ему нужна крупная сумма. Оказалось, что он ей вовсе не звонил. А тот номер, с которого звонили мошенники, пропал из истории звонков.
— И как это провернули с технической точки зрения?
— А мы возвращаемся к вредоносным программам, о которых уже говорили. Такая могла взломать профиль сына в соцсетях. Выкрасть персональные данные, фотографии, голосовые сообщения. Затем все это было загружено в ИИ, который на основе полученных данных создал голос для моделирования диалога с живым человеком. Всё делается за две-три секунды.
— А как от такого можно защититься?
— Подменные номера мошенники уже создавать научились. Но пока они не подписаны так, как у вас записан конкретный человек в списке контактов. Это вас сразу должно насторожить при звонке. Государство тоже работает над нашей защитой. Теперь официальные номера телефонов подписываются при звонке. Это осложняет мошенникам жизнь. Например, если вам позвонят из регистратуры городской больницы, а у вас такого номера в списке контактов нет, то вы увидите официальную подпись номера. База таких номеров постоянно пополняется. Но есть в связи с этим другой риск. Как только она заполнится, то данные из неё могут утечь в свободный доступ, и идея с подписанием официальных номеров обесценится. Сразу же ИИ придумает, как подписывать такие номера при наличии у него такой базы данных.
— Напрямую встаёт вопрос к организации внутренней безопасности у тех, кто подобные базы формирует.
— Совершенно верно. Известно, что большинство утечек происходит от операторов связи. На эту тему даже статистика есть. Там продают паспортные данные клиентов, сим-карты без регистрации. Всё это утекает к мошенникам. Таким промышляют сотрудники без моральных ограничений. Законодательная ответственность их не останавливает.
— Что же нас ждёт в будущем?
— Постоянное соревнование между совершенствованием электронной защиты и поиском путей для её обхода со стороны мошенников.
— И что делать?
— Людям надо наглядно показывать и рассказывать, к чему приводит несоблюдение элементарных мер сетевой безопасности. Мы в этом плане уже работаем с молодёжью в школе информационной безопасности «Код красный 19». Занимаемся с подростками от 14 до 18 лет. Пока у нас 400 детей. Развиваем у них критическое мышление. Например, даём задание проанализировать профили друг друга в социальных сетях, выявить круг интересов. И на основании этой информации предложить их владельцам какой-либо интересный им продукт. Схожим путём действуют в отношении своих жертв террористы и экстремисты. Наши слушатели теперь анализируют, кто и зачем с ними пытается познакомиться. Изучают профили тех, кто пишет им в социальных сетях, кто находится у них в друзьях. Не бот ли ведёт с ними беседу? Занятия уже идут в разных школах Хакасии на средства федерального гранта Росмолодёжи. Это форма разъяснительной работы, которая обязательно даст свой положительный результат.
Но у этой медали есть и негативная сторона. Какая? О проблемах, которые уже создаёт нам искусственный интеллект, мы поговорили с директором школы информационной безопасности «Код красный 19» Дмитрием Черных.
— Дмитрий, ваша работа связана с устранением рисков в сфере информационной безопасности. А она теперь неразрывно связана с искусственным интеллектом. Какие проблемы привнёс он в нашу жизнь?
— Давайте начнём с того, что ИИ создавался как технология, способная существенным образом улучшить жизнь человека. Как и интернет, кстати. Он тоже в своё время задумывался как большая библиотека по обмену данными, куда каждый мог бы обратиться в любое время и из любой точки мира.
— Но превратился интернет в нечто иное….
— Да. В этой технологии со временем всплыло множество побочных эффектов. Таким же образом ситуация обстоит и с искусственным интеллектом. Помните, несколько лет назад на электронную почту стали массово приходить письма от мошенников с предложением вступить в наследство, которое оставил вам дядюшка-миллионер, внезапно скончавшийся на другом конце Земли? Кто-то на это покупался. Но большинство видели, что письма написаны с ошибками, коряво построенными фразами на русском. Уши заказчика становились видны почти сразу. Так вот, эта технология мошенничества не умерла. ИИ вывел её на новый уровень.
— Как?
— Он теперь составляет идеальные письма на любых языках. Они грамотно сформулированы, в них нет орфографических и грамматических ошибок. Тексты выстроены в нужной заказчику стилистике. И степень доверия к таким мошенническим письмам уже находится на совсем другом уровне. Вот пример того, как ИИ несёт нам совсем не благо. С его помощью создаются и фишинговые сайты (мошеннические сайты-клоны. — В.Л.).
— Искусственный интеллект и фишинг вывел на новый уровень?
— Да. Этакий фишинг 2.0. С появлением сервисов, использующих большие языковые модели, появилась возможность генерировать идеально написанные персонализированные письма на любом языке.
— Но ведь не только идеальными письмами от мошенников ИИ портит нам жизнь. Он ведь может и вредоносное программное обеспечение создавать?
— Это работает несколько иначе. ИИ может искать уязвимости в коде отдельных сайтов, программ и компьютерных игр. Загружает мошенник код программы в ИИ и просит провести его анализ на наличие пробелов и ошибок. Удобная функция, если использовать её во благо. ИИ легко и быстро выполняет эту задачу. Но затем в выявленные им уязвимости программы злоумышленник встраивает вредоносное программное обеспечение. Вы ставите программу с зашитой в неё подпрограммой на свой компьютер, и она начинает собирать все ваши персональные данные, читать переписку в мессенджерах и передавать всё мошенникам в режиме онлайн. В особой группе риска находятся подростки. Игры они часто качают с пиратских сайтов, с торрентов. А в них уже вшиты вредоносные программы. Вот ещё один пример того, как ИИ помогает красть наши персональные данные, а затем с их помощью и наши деньги.
— А разработчики ИИ не вшивают в него ограничения, чтобы нельзя было использовать их продукт во вредоносных целях?
— Вшивают. Это называется «красные флаги», но они не сильно помогают. Нельзя, например, запросить и получить у ИИ инструкцию по созданию бомбы. Такой запрет прямо прошит в код искусственного интеллекта. Но запрет можно довольно легко обойти. И обвинять в этом ИИ либо разработчиков искусственного интеллекта некорректно. Не их вина, что возможности системы используют не во благо, а во вред.
— Кто-то скажет, что всё можно решить, просто отрегулировав законодательство...
— Возможно, что через несколько лет ИИ сам научится различать сложные схемы попыток его использования в негативных целях. А законодательные поправки, о которых вы говорите, не особо помогут. Ведь у разных стран разные модели искусственного интеллекта. И то, что можно запретить законом в одной стране, в другой будет совершенно законным. И синхронизировать в этой сфере законодательные запреты в текущей международной ситуации, сделать их всемирными — из разряда чего-то нереального.
— Но когда-то мир вынужден будет к этому прийти.
— Когда-то — да. Но когда это будет? Конкретных сроков сейчас не назвать.
— Чем ещё опасен для нас ИИ?
— Дипфейками и синтезом голосов наших близких и знакомых. Страшная тема, на самом деле. Раньше, чтобы создать искусственное видео, в специальную программу нужно было загрузить от 100 до 500 тысяч фото и видеороликов с конкретным человеком. А сейчас процесс поставлен на поток. И искусственному интеллекту хватает уже от 10 до 50 тысяч фото и видео, чтобы создать из них дипфейк. Во многих сервисах ИИ, заточенных под это, первые пять попыток получения таких картинок и роликов предоставляют бесплатно. Мошенники активно такой функцией пользуются. Им даже не надо платить и оставлять цифровой след в виде банковских реквизитов. В 2023 году был случай, когда вся Америка встала на уши из-за видео, в котором бывший президент Барак Обама ругал Дональда Трампа. И многие тому видео поверили. А это был в чистом виде дипфейк, который решал политическую задачу. Таких историй теперь очень много.
— Америка далеко. А в Хакасии что-то подобное происходит?
— К сожалению, происходит. Мне директор одной из наших школ рассказала, что ей позвонил сын. Точнее, она была уверена, что звонит её сын. Потому что номер был его, голос его и даже языковые маркеры, с помощью которых они определяют друг друга. Просил занять денег. И она почти перевела. Просто решила потом перезвонить и выяснить, зачем ему нужна крупная сумма. Оказалось, что он ей вовсе не звонил. А тот номер, с которого звонили мошенники, пропал из истории звонков.
— И как это провернули с технической точки зрения?
— А мы возвращаемся к вредоносным программам, о которых уже говорили. Такая могла взломать профиль сына в соцсетях. Выкрасть персональные данные, фотографии, голосовые сообщения. Затем все это было загружено в ИИ, который на основе полученных данных создал голос для моделирования диалога с живым человеком. Всё делается за две-три секунды.
— А как от такого можно защититься?
— Подменные номера мошенники уже создавать научились. Но пока они не подписаны так, как у вас записан конкретный человек в списке контактов. Это вас сразу должно насторожить при звонке. Государство тоже работает над нашей защитой. Теперь официальные номера телефонов подписываются при звонке. Это осложняет мошенникам жизнь. Например, если вам позвонят из регистратуры городской больницы, а у вас такого номера в списке контактов нет, то вы увидите официальную подпись номера. База таких номеров постоянно пополняется. Но есть в связи с этим другой риск. Как только она заполнится, то данные из неё могут утечь в свободный доступ, и идея с подписанием официальных номеров обесценится. Сразу же ИИ придумает, как подписывать такие номера при наличии у него такой базы данных.
— Напрямую встаёт вопрос к организации внутренней безопасности у тех, кто подобные базы формирует.
— Совершенно верно. Известно, что большинство утечек происходит от операторов связи. На эту тему даже статистика есть. Там продают паспортные данные клиентов, сим-карты без регистрации. Всё это утекает к мошенникам. Таким промышляют сотрудники без моральных ограничений. Законодательная ответственность их не останавливает.
— Что же нас ждёт в будущем?
— Постоянное соревнование между совершенствованием электронной защиты и поиском путей для её обхода со стороны мошенников.
— И что делать?
— Людям надо наглядно показывать и рассказывать, к чему приводит несоблюдение элементарных мер сетевой безопасности. Мы в этом плане уже работаем с молодёжью в школе информационной безопасности «Код красный 19». Занимаемся с подростками от 14 до 18 лет. Пока у нас 400 детей. Развиваем у них критическое мышление. Например, даём задание проанализировать профили друг друга в социальных сетях, выявить круг интересов. И на основании этой информации предложить их владельцам какой-либо интересный им продукт. Схожим путём действуют в отношении своих жертв террористы и экстремисты. Наши слушатели теперь анализируют, кто и зачем с ними пытается познакомиться. Изучают профили тех, кто пишет им в социальных сетях, кто находится у них в друзьях. Не бот ли ведёт с ними беседу? Занятия уже идут в разных школах Хакасии на средства федерального гранта Росмолодёжи. Это форма разъяснительной работы, которая обязательно даст свой положительный результат.
Источник видео:Лариса Баканова
Материалы по теме
Комментарии: 0 шт
1163
Оставить новый комментарий