Как искусственный интеллект уничтожит человечество: нам грозит не восстание машин, а сюжет из Премии Дарвина

Наука


Кадр из фильма «Терминатор»

В кинематографе вопрос о восстании машин был окончательно и бесповоротно решен после выхода культового фильма “Терминатор-2”. А поскольку, кино для нас по-прежнему важнейшее из искусств, то массовый зритель убежден, что развитие машинного интеллекта рано или поздно приведет к войне роботов и людей. В свою очередь среди людей науки нет единого мнения относительно способности алгоритмов поработить человечество. Ученые обсуждают несколько совершенно разных сценариев развития отношений между людьми и умными железяками. Давайте разберем самые популярные из них.

Кадр из фильма "Терминатор"

Кадр из фильма «Терминатор»

Сценарий №1: Война с роботами

Битва искусственного интеллекта (ИИ) против человечества — наиболее традиционный вариант апокалиптического развития событий, по крайней мере, в массовом сознании. И, надо сказать, этот сюжет стал вполне реалистичным.

Первым звонком было поражение Гарри Каспарова в шахматном матче против суперкомпьютера Deep Blue в 1997 году. А спустя 23 года финальным аккордом стала безоговорочная победа алгоритма компании Heron Systems над пилотом истребителя F-16 в финале соревнований “Машина против человека”, которые в 2020 году проводило Агентство перспективных исследовательских проектов Министерства обороны США. Летчик с позывным “Бангер” (его настоящее имя не разглашается) и искусственный интеллект вели воздушный бой с помощью авиасимуляторов, которые используются для подготовки пилотов в учебном центре ВВС. Алгоритм впервые выиграл пять поединков из пяти и ни разу не дал своему противнику из крови и плоти шанса открыть ответный огонь: Бангер все свое время потратил на маневры и уклонения, но так и не смог выйти на позицию для атаки.

Кадр из фильма "Терминатор"

Кадр из фильма «Терминатор»

Военные пока не собираются заменять живого пилота на робота, но технологии искусственного интеллекта все шире применяются в пилотируемой военной технике. Так что, видимо летчикам рано или поздно придется отдать штурвал самообучающимся программам.

Если дело пойдет такими темпами, то еще через два десятилетия алгоритмы машинного обучения будут способны полностью заменить летчиков и командиров других боевых машин. И если искусственному разуму взбредет в голову перехватить контроль над управлением военной техникой, то противостоять железному дровосеку будет некому.

Прогноз: При желании машины легко могут покончить с человечеством. Но все же такое развитие событий маловероятно. Дело в том, что большинство ученых считает, что у суперкомпьютера нет человеческих эмоций и желаний. А значит у него не может быть мотивов для захвата власти и уничтожения кого бы то ни было.

Чемпион мира Гарри Каспаров во время третьего матча с шахматной программой суперкомпьютера "Дип Блю". Фото: Илона Колесниченко/ТАСС

Чемпион мира Гарри Каспаров во время третьего матча с шахматной программой суперкомпьютера «Дип Блю». Фото: Илона Колесниченко/ТАСС

Читать так же:  Индусы подтвердили: американцы были на Луне

Сценарий №2: Людей погубит синдром старика Хоттабыча

По мнению Сьюзан Шнайдер, руководителя Центра разума будущего Атлантического университета Флориды, главная проблема с ИИ заключается в том, что мы не сможем правильно управлять тем, кто умнее и могущественнее нас. Суперкомпьютер может просто не понять что именно мы от него хотим. Эту тему хорошо описывают классические истории про джина из волшебной лампы и исполнение трех желаний, в результате чего повелитель лампы получает одни проблемы. Например, когда в качестве третьего желания повелитель лампы попросил сделать его семью счастливой, то сам он исчез, а джин женился на его жене.

Или взять миф про царя Мидаса, который попросил у богов даровать ему способность превращать в золото любой предмет, к которому он прикоснется. В результате в золото превращалась еда, которую Мидас ел, и вода, которую он пил.

Поэтому Сьюзан Шнайдер и некоторые ее коллеги предупреждают: человечество должно опасаться своих желаний, их исполнение искусственным интеллектом приведет к непредсказуемым последствиям. В качестве примера алармисты приводят знаменитый кейс со скрепками, когда компания компания-производитель канцелярских товаров может неправильно настроить алгоритм ИИ, желая максимально эффективно наладить выпуск скрепок. В этом случае искусственный интеллект может разрушить планету, превращая любую материю в скрепки.

Сторонники этой теории убеждены: нам угрожает не восстание машин, а сценарий из сатирической Премии Дарвина. Ее визитной карточкой стала легендарная (но выдуманная) история про смотрителя зоопарка, который дал слону слабительное и утонул в навозе, решив усилить действие лекарства клизмой.

Иными словами человечество ждет не только печальный, но и глупый конец.

Прогноз: С одной стороны опасность такого поворота событий сильно преувеличена. Все-таки сложно ожидать от ИИ сочетания высокой эффективности и одновременно нелепости, свойственной персонажам мультфильма “Вовка в Тридевятом царстве”, которых мы знаем как “Двое из ларца”. Последние, как вы помните, не только добывали для Вовки конфеты и мороженое, но и сами их ели. Кажется, такие перекосы легко исправить загрузив в электронные мозги некий моральный кодекс. Но, по мнению Сьюзан Шнайдер, человечество неспособно создать свод этических правил, с которыми были бы согласны все. Кто-то категорически не приемлет физическое наказание детей, для других такое табу — покушение на традиционные ценности. Для одних нет запретных тем для шаржей и карикатур, другие отрезают за рисунки головы. А если мы не в состоянии объяснить алгоритму, что такое хорошо и что такое плохо, то можно ожидать от него самых странных выходок.

Все-таки сложно ожидать от ИИ сочетания высокой эффективности и одновременно нелепости, свойственной персонажам мультфильма “Вовка в Тридевятом царстве”, которых мы знаем как “Двое из ларца”.

Все-таки сложно ожидать от ИИ сочетания высокой эффективности и одновременно нелепости, свойственной персонажам мультфильма “Вовка в Тридевятом царстве”, которых мы знаем как “Двое из ларца”.

Читать так же:  Мечта Гитлера и Риббентропа: как Германия и Япония объединились против коммунистов

Сценарий №3: Сверхразум воспользуется нашей биологической уязвимостью

Допустим, в один прекрасный день искусственный интеллект решит, что ему необходимо избавиться от людей. Причем, из благих побуждений. Например, если человечество окажется на пороге глобальной ядерной войны, то, с точки зрения продолжения жизни на Земле, разумнее избавиться от сошедшего с ума господствующего вида, но сохранить планету. Как в этом случае будет действовать алгоритм? Вряд ли он станет придерживаться правил ведения войны, которые существуют в голове у наших генералов. ИИ легко обойдется без крупномасштабных боевых действий.

Скорее всего, он воспользуется нашими слабостями, как биологического вида. Достаточно просто лишить нас ключевых ресурсов, критически важных для выживания, считает канадский футуролог Джордж Дворски. Например, снизить уровень атмосферного кислорода. Без него мы можем прожить всего несколько минут.

На другую уязвимость еще в первые дни пандемии Sars-Cov-2 указал Роман Ямпольский директор лаборатории компьютерной безопасности в Университете Луисвилля (США). “IQ этого вируса равен нулю и он надирает нам задницу. Чтобы обезопасить себя от угроз ИИ мы должны быть готовы бороться с компьютерными вирусами, IQ которых равен 1000 и выше” — написал он в своем Твиттере.

И действительно, новый коронавирус парализовал жизнь на планете, хотя на него обрушилась вся мощь цивилизации. При этом он второй год противостоит ограничительным мерам, вакцинам, маскам, локдаунам только с помощью случайных мутаций и естественного отбора — так появляются новые более заразные штаммы, способные обходить защиту иммунной системы. Страшно подумать, что может случиться если опасный для человека вирус будет сконструирован суперкомпьютером, который будет постоянно совершенствовать эту смертоносную машину.

Прогнозы: Шансы того, что ИИ выйдет из под контроля человека довольно велики. По словам ректора Сколтеха Александра Кулешова, уже сейчас ученые не в состоянии понять, каким образом самообучающиеся алгоритмы, обыгрывают людей в покер и го, рисуют картины, переводят тексты и пишут газетные колонки. Мы и сейчас доверяем ИИ слишком многое — он управляет работой атомных станций, отвечает за технологические циклы в сложных промышленных производствах, контролирует львиную долю биржевой торговли. Чтобы люди могли успевать за ходом мысли искусственного интеллекта Илон Маск разрабатывает “нейронное кружево” — интерфейс, который может объединить в одну систему мозг человека и компьютер. По мнению Маска, это единственный способ избежать морального устаревания человечества, и понимать, что происходит в мозгах наших электронных братьев по разуму.

Андрей Себрант. Фото: Егор Алеев/фотохост-агентство ТАСС

Андрей Себрант. Фото: Егор Алеев/фотохост-агентство ТАСС

Читать так же:  новосибирские ученые раскрыли тайну, как сварить изумруд

ДРУГОЕ МНЕНИЕ

За действиями машин всегда будут стоять люди

Однако, далеко не все ученые разделяют убеждение о том, что искусственный интеллект способен сам по себе вынашивать зловещие замыслы в отношении своих создателей.

— Опасность умных машин целиком связана с опасностью тех, кто ставит им задачу, — заявил в эфире научно-популярного канала SciOne Андрей Себрант, директор по стратегическому маркетингу сервисов компании «Яндекс», профессор Высшей школы экономики. — Если поставить им людоедскую человеконенавистническую задачу, то, скорее всего, они ее решат эффективнее, чем люди. Но проблема не в машинах, а в живых людях, которые эту задачу сформулировали.

По мнению профессора, искусственный интеллект мало чем отличается от любых других технологий, находящихся на службе человека. Так открытие атома привело к созданию атомных электростанций и атомной бомбы, а рождение авиации сделало для путешественников доступной любую точку Земного шара, но в то же время привело к появлению бомбардировщиков. ИИ может очень сильно помочь людям с плохими целями. В тоже время самообучающиеся алгоритмы могут здорово помочь людям, которые будут этому противостоять.

— Это будет борьба между теми, кто будет использовать машинное обучение для предотвращения конфликтов и теми, кто будет использовать машинное обучение для поганых целей, — уверен Андрей Себрант. — Но это всегда будет история про людей. Машины не могут выступать в качестве третьей стороны конфликта.





Источник

Оцените статью
ЛечебаРу - новости науки и медицины