Неоправданная эйфория от наступления «цифровой цивилизации»

По всему миру идет активная пропаганда «эры цифровой цивилизации». Цифровая экономика, дистанционное образование и все, тому подобное, вызывают настоящую эйфорию не только у властей, но и многих журналистов, а также рядовых граждан.

Но, как известно, сами технологии – только инструмент. И весь вопрос заключается в том, в чьих руках он находится. А поскольку вся история человечества показываем нам, что первыми к этому инструменту протягивают руки совсем не те, кого бы мы хотели видеть, – то это, как минимум, повод задуматься.

Тем более что уже сейчас очевидны нарастающие проблемы. Точнее, нарастающие угрозы. Причем, они идут со всех сторон – и «сверху», и «снизу. Что касается угроз «сверху», то они уже стоят перед нами в полный рост. Это и тотальное насаждение дистанта в образовании, имеющее целью практическое уничтожение образования как такового (о чем писали не только мы, но уже множество специалистов, а также родителей); это и тотальный контроль над малейшими деталями жизни граждан – что уже(!) реализовано в Китае. Ну, а угрозы «снизу» не такие масштабные, но не менее неприятные.  Некоторые из них перечисляет Р. Ганиев в своей статье, выдержки из которой мы далее приводим.

***

Как преступники могут использовать искусственный интеллект?

Последние 10 лет мы ежедневно слышим новости про то, как тот или иной искусственный интеллект научился новым навыкам. На сегодняшний день компьютерные алгоритмы умеют копировать стили рисования известных художников, имитировать чужие голоса, создавать поддельные видеоролики с публичными личностями и многое другое. За всем этим очень интересно следить, но многие эксперты по компьютерной безопасности обеспокоены тем, что разрабатываемые технологии могут использоваться злоумышленниками для совершения преступлений. Ведь использование нейронных сетей для осуществления каких-либо задач на данный момент никак не регулируется. Получается, что любой человек, хорошо владеющий программированием, может использовать искусственный интеллект для выманивания у людей денег, слежки и совершения прочих противозаконных действий. Недавно сотрудники Университетского колледжа Лондона решили выяснить, какое именно умение искусственного интеллекта может нанести человеческому обществу наибольший вред.

Возможности искусственного интеллекта

Результатами проделанной работы поделилось издание The Next Web. В рамках научной работы исследователи определили 20 умений искусственного интеллекта, которые будут доступны преступникам в следующие 15 лет. К сожалению, полный список методов использования не удалось найти даже на сайте колледжа, но исследователи все же упомянули самые важные пункты.

Итак, по их мнению, искусственный интеллект умеет:

  • управлять электрическими автомобилями, что больше известно как автопилот;
  • обманным путем узнавать логины, пароли и прочие личные данные пользователей — иначе говоря, заниматься фишингом;
  • собирать компрометирующие фото, видео и прочие данные о людях, которые могут быть использованы для шантажа;
  • генерировать фальшивые новости, при помощи которых можно управлять мышлением большого количества людей;
  • управлять роботами, при помощи которых можно следить за людьми и даже грабить дома;
  • создавать поддельные видеоролики с известными людьми, чтобы испортить их репутацию.

Эти и многие другие способы использования нейронных сетей в преступных целях были изучены группой из 31 эксперта по искусственному интеллекту. Перед ними была поставлена задача отсортировать все этим умения по уровню опасности для общества. При составлении рейтинга эксперты учитывали сложность использования искусственного интеллекта для выполнения тех или иных задач, возможность предотвращения мошенничества и количество денег, которые преступники могут получить обманным путем.

Самой опасной способностью искусственного интеллекта было названо создание так называемых дипфейков (deepfakes). Впервые об этом умении компьютерных алгоритмов стало известно примерно в 2017 году. Именно тогда один из пользователей сайта Reddit показал миру, как имея мощный компьютер можно создать фальшивое видео, где лицо одного человека заменено на другое. Он продемонстрировал это на самом непристойном примере, вставив лица известных людей в видео для взрослых. Эта новость навела очень много шума и дипфейки в таком виде даже стали запрещены. Однако, на данный момент никто не мешает программистам создавать забавные видео наподобие того, где Илон Маск поет песню про «рокот космодрома».

Создание фальшивых видео было признано опасной функцией по двум причинам.

Во-первых, при помощи них можно как выманивать деньги, так и портить репутацию людей. Вот небольшой пример. На данный момент, с целью получения легких денег многие мошенники взламывают аккаунты людей в социальных сетях и просят их близких друзей перечислить им определенную сумму денег. Объяснением причин они особо не занимаются и уходят от такого разговора словами, мол, «сейчас некогда, потом объясню». Примерно пять лет назад эта схема была рабочей и многие люди действительно выручали «близких друзей». Но теперь на такие уловки мало кто клюет. Однако, если мошенники создадут дипфейк на основе аватарки пользователя и отправят его друзьям видео, на котором он якобы на камеру просит отправить деньги, многие люди всерьез обеспокоятся и поверят мошенникам.

Также дипфейки могут использоваться для порчи репутации известных людей и это было доказано много раз. Вот уже несколько лет подряд в Интернете возникают видео с якобы пьяной Нэнси Пелоси — спикера Палаты представителей США. Разумеется, эти видео поддельные, но они набирают много просмотров и некоторые люди действительно могут принять их за настоящие. Ведь о технологии создания поддельных видео многие даже не подозревают — из представителей старшего поколения технологически подкованных людей вообще единицы.

Вторая опасность заключается в том, что такой метод мошенничества трудно остановить. Дело в том, что фальшивые видео получаются настолько реалистичными, что распознать их практически невозможно.

Источники: https://yandex.ru/turbo/hi-news.ru/s/technology/pochemu-delitsya-fotografiyami-v-socialnyx-setyax-opasno.html?utm_source=turbo_turbo

https://yandex.ru/turbo/hi-news.ru/s/technology/kak-prestupniki-mogut-ispolzovat-iskusstvennyj-intellekt-samyj-opasnyj-variant.html?utm_source=turbo_turbo

***

Ко всему сказанному можно еще добавить весьма низкую надежность самих цифровых носителей, равно как и программ, по сравнению хотя бы с обычной бумагой. Что, если мы столкнемся, например, с магнитными бурями такой мощности, которые попросту снесут информацию? А бумажные книги, как мы знаем, хранятся тысячелетиями. Что если нарушится какой-то электронный центр управления сложными процессами? И так далее. Поэтому эйфория от «цифровой цивилизации», мягко говоря, мало оправдана.