Home » Обзоры и события » Киберпреступники натравят на вас искусственный интеллект

Киберпреступники натравят на вас искусственный интеллект

Представьте себе следующую ситуацию. Вы получаете звонок или голосовое сообщение от близкого человека, который сейчас путешествует за границей. Он утверждает, что потерял телефон и деньги и просит вас о помощи. Ранее вы получали электронные письма с подобными просьбами, но, будучи технически подкованным человеком, решили, что вас пытаются “развести”. Но на этот раз никаких сомнений нет — вы собственными ушами слышите голос своего знакомого. Вы переводите деньги. И напрасно. Ведь этот голос сгенерирован при помощи искусственного интеллекта. Из соцсетей преступники получили все необходимые сведения, включая образцы голоса потенциальной жертвы. Затем — сформировали соответствующие голосовые сэмплы при помощи интеллектуального алгоритма.

Пока это — вымышленный сценарий. Но последние успехи искусственного интеллекта делают такое развитие событий все более вероятным. К примеру, самообучающейся системе Google DeepMind AlphaZero понадобилось всего восемь часов, чтобы научиться играть в древнюю китайскую игру Go лучше, чем любому из людей. Подобные самообучающиеся алгоритмы могут быть крайне полезны в науке и экономике.

 

Палка о двух концах

Как показывает отчет “Злонамеренное использование искусственного интеллекта”, опубликованный недавно исследовательской компанией OpenAI, эта технология может стать палкой о двух концах. С одной стороны, ИИ будет и дальше делать жизнь людей лучше. С другой, преступники, террористы и страны-изгои будут эксплуатировать этот мощный инструмент, чтобы вредить другим.

Злонамеренное использование искусственного интеллекта угрожает не только собственности и приватности людей. В более тревожных сценариях оно может угрожает их жизням. В мире быстро увеличивается количество дронов и других киберфизических систем, вроде беспилотных автомобилей или умных медицинских устройств. Все они могут становиться заманчивыми целям для террористов и киберпреступников. Возможные сценарии включают множество пугающих вещей — от спровоцированных автокатастроф до дронов, узнающих жертву в лицо.

 

Мир постправды

Еще один пугающий способ применения искусственного интеллекта — влияние на умы людей. Недавно спецпрокурор Соединенных Штатов Роберт Мюллер, возглавляющий расследование ФБР о вмешательстве России в президентские выборы США, заявил, что над процессом срыва голосования в 2016 году работала профессиональная команда из восьмидесяти человек.

А теперь представьте, что в руки такой команды попадает алгоритм, позволяющий создавать поддельные видео, неотличимые от реальных, или поддельные аудиодорожки с голосами любой публичной персоны.

Инструменты, которые позволяют менять лица людей на видео, уже существуют. Пользователь Reddit под логином Deepfakes первым начал использовать подобный алгоритм, чтобы “приклеивать” лица голливудских звезд к телам поноактрис. Пока технология несовершенна, но рано или поздно поддельные видео станут соврешенно неотличимыми от реальных. видеороликов. Проще говоря, любой человек сможет создать реалистичный видеоролик с участием любого другого человека.

Эксперты OpenAI опасаются, что это приведет к окончательной потере какой бы то ни было истины. Представьте, что вам удалось запечатлеть чиновника, берущего крупную взятку. Такое видео больше не будет являться доказательством для обвинения в коррупции. Чиновник просто скажет, что это видео поддельное. И в доказательство представит сотню не менее реалистичных видеороликов, где взятку берут самые разные персоны разной степени абсурдности, от Люка Скайуокера до Папы Римского.

Справедливо и обратное. Умные алгоритмы неизбежно будут использоваться для создания компрометирующих материалов на вполне честных людей. И хотя в подобном “мире постправды” видео перестанет являться объективным доказательством чего-либо, поддельные ролики все  же смогут подмочить чью-то репутацию и посеять в массах сомнения.

Забудьте о блестящих журналистских расследованиях и разоблачениях, меняющих ход истории. Искусственный интеллект способен окончатлеьно уничтожить песчинки правды, похоронив их в океане фейков. А значит, миром будут править наиболее отъявленные лжецы и подонки.

Проще говоря, ничего не изменится.

Источник

Spread the love



Обязательные поля помечены * *

*