ГоловнаТехно RUФиксируют массовое появление поддельных видео с задействованием искусственного интеллекта

Фиксируют массовое появление поддельных видео с задействованием искусственного интеллекта

Підписуйся на нас:
Telegram | Facebook | Twitter | YouTube-канал

С развитием искусственного интеллекта усовершенствуются программные алгоритмы не только для развлечения пользователей, но и для совершения мошеннических операций киберпреступниками. Об этом заявили разработчики антивируса ESET. Они уточнили, что особую опасность представляет технология Deepfake, о которой и пойдет речь в статье.

Deepfake – краткое описание и практический пример

Наглядный пример Deepfake-2

Технологической особенностью Deepfake стало своего рода «соперничество» алгоритмов ИИ. Идеальным итогом становится следующее – создается подделка, которую достаточно сложно распознать существующими программами. Сотрудникам ESET приходится довериться интуиции и вручную «отсеивать» фэйки. При этом пределов практически не существует – алгоритмы используют видеоролики, картинки и записи из открытых источников. Еще, Deepfake способен полноценно вставить голос конкретного человека.

С первого взгляда, система достаточно сложна для понимания, но в компании ESET предоставили реальный случай. В крупную компанию поступило сообщение от генерального директора о срочном переводе крупной суммы на предоставленный счет поставщиков. Подозрений ни у кого не возникло, – деньги перевели.

Каковы критические последствия

Наглядный пример Deepfake

Широкий резонанс данная проблема получила в результате практически «безмерных» возможностей Deepfake. В глобальных масштабах, банальные хулиганские действия могут расшатать политическую систему. Такие «шутники» могут довести любого человека до безумия. Предсказать последствия запуска сверхкачественного фейка в сеть невозможно, ведь это зависит от личного психического восприятия конкретного лица.

ESET предупредили, что разоблачающие Deepfake системы находятся в начальной стадии развития. Полноценно бороться с созданием реалистичных фэйков в настоящее время невозможно. Эта проблема имеет корень – широкое распространение медиа файлов в соц. сетях. Для создания даже короткого ролика алгоритмы должны обработать терабайты информации, и это для мощных систем не является проблемой.

Стрічка новин: