Модель ChatGPT совершила революционный прорыв в мире искусственного интеллекта. Появился великолепный инструмент, но вопрос в том, как им воспользоваться.
С каждым днем мошенники все активнее используют нейросети для реалистичных фейков: это могут быть фальшивые документы, ложные аудиозвонки (и даже видеозвонков) от имени знакомых людей; до обмана систем компьютерной безопасности и фишинговых атак.
Почему Чат ГПТ стал народным
Получив доступ в интернет, нейросеть ChatGPT поистине стала народной моделью. По словам доцента и ИТ-директора Института компьютерных технологий и информационной безопасности ЮФУ Алексея Целых, ChatGPT отличается от своих «родственников» тем, что есть «память», поэтому сеть лучше удерживает контекст диалога. Но при этом программа совершенно не понимает значения слов и не умеет ловить логические связи.
Надо понимать, что помимо инноваторов появятся и те, кто будет использовать интеллектуального помощника в корыстных целях. Например, злоумышленники могут воспользоваться тем, что нейросеть способна генерировать голос.
– Если раньше программа могла искусственно синтезировать голос, но было понятно, что с вами разговаривает робот, то сегодня нейросеть умеет имитировать дыхание, способна поддерживать вразумительный диалог, основываясь на полученных данных. Правда, если попробовать пошутить с ИИ, то возникает заминка.
Это можно наблюдать в разговоре с якобы представителем банка: если абонент нестандартно отвечает или спрашивает о чем-либо, телефонный разговор обрывается.
Перед тем как злоумышленники собираются «взломать» конкретного человека, при помощи чат-бота они могут вычислить о нем все, что возможно. На мой взгляд, неограниченный доступ к информации – это не очень хорошо, – полагает старший научный сотрудник Научно-исследовательского института робототехники и процессов управления ЮФУ Владимир Переверзев.
Недаром сегодня наблюдаем неоднозначное отношение к нейросетям.
Илон Маск и его сторонники призывают приостановить разработки в области искусственного интеллекта на шесть месяцев.
– С помощью нейросети пытались воспроизвести лицо человека, которого нет в реальности, и вначале результат получился плохой. Но когда две нейросети стали работать в симбиозе (GAN) – одна нейросеть генерирует видео (генератор), а другая проверяет качество (дискриминатор), и они обучаются вместе, – то получился крутой эффект: синтезированное лицо уже не отличишь от настоящего.
Сгенерировать липовый контент
Еще одна большая опасность: при грамотном использовании нейросети без особого труда способны стирать грань между вымыслом и реальностью. Об этом предупреждает резидент ассоциации разработчиков цифровых решений «БРЭЙНХОРН», член правления ассоциации «РУССОФТ» Максим Болотов.
— Один из способов обмана с использованием имитации голоса является убеждение людей, что их родные попали в плохую ситуацию и им срочно нужна денежная помощь, – говорит Максим Болотов. – Они заставляют
пользователей предоставить данные, например, банковской карты для возможного мошенничества или убеждают открыть вложение в письме электронной почты с вредоносной программой.
Генерация нейросетями картинок (особенно лиц) и видео уже давно используется мошенниками для создания фейковых аккаунтов в соцсетях, сервисах знакомств и на маркетплейсах.
– Как вариант, главный бухгалтер компании в мессенджере получает не просто голосовое, а видеосообщение от генерального директора, который не может сейчас говорить по телефону, поскольку летит в самолете, и просит срочно перевести средства компании перед проверкой на тот или иной счет.
Иначе главбух может считать себя уволенным, – говорит Максим Болотов.
Как защититься – советы Максима Болотова
1. Будьте осторожными. Установите способ связи со своей семьей, чтобы быть уверенным, что они всегда могут быстро связаться со всеми в случае, если столкнутся с ситуацией возможного мошенничества.
2. Проверяйте информацию в двух-трех источниках, которые не ссылаются друг на друга.
3. Будьте «жадными» касательно публикации личной информации о себе и своих близких в соцсетях и других сервисах.
Как защититься – советы, сгенерированные ChatGPT
1. Будьте бдительными с фальшивыми новостями и видео.
2. Используйте сильные пароли и двухфакторную аутентификацию.
3. При совершении онлайн-покупок не предоставляйте номера банковских карт неизвестным или ненадежным продавцам.
Газета Молот, опубликовано 30 июля 2023