Как искусственный интеллект может сделать ядерную войну более вероятной
ИИ не начнет ядерную войну, но страны, неуверенные в своих способностях сдерживания или в возможностях конкурирующей нации, использующей ИИ, просто могут. Galerie Bilderwelt / Getty Images
Если вы миллениал, компьютеры пытаются убить вас с тех пор, как вы родились.
26 сентября 1983 года спутники и компьютеры советских войск противовоздушной обороны, которым было поручено использовать данные для определения того, осуществляют ли Соединенные Штаты ядерную атаку, сообщил ответственным людям, что именно это происходит - приближаются пять баллистических ракет США и время для СССР подготовиться к запуску теперь была ответная атака.
СМОТРИ ТАКЖЕ: новый ИИ может подорвать весь фундамент финансовой индустрии
Причина, по которой вы живы сегодня, чтобы прочитать этот материал, заключается в том, что в этом участвовал человек, тогда ... Lt. Полковник Станислав Петров считал, что компьютер неисправен. Он был прав - и поэтому ядерной войны, подобной той, что мы видели в следующем году в телевизионном фильме BBC «Threads», не произошло. Если бы компьютеры были главными, то, вероятно, так и было бы, и цивилизация, которую мы знаем, закончилась бы. Все это объективные утверждения.
Конечно, и вычислительная мощность, и сложность выросли не по дням, а по часам со времени первого срока Рональда Рейгана. Сегодняшний средний потребительский смартфон почти неизмеримо мощнее, чем технология командования и управления ядерным оружием времен холодной войны. В течение следующего года Пентагон потратит 1 миллиард долларов на разработку технологии искусственного интеллекта (ИИ), которая будет «конкурировать, сдерживать и, при необходимости, сражаться и побеждать в войнах будущего» - включая, предположительно, апокалиптический сценарий подобного рода. Петров, человек, предотвратил.
Среди рабочих мест, которые можно было бы передать на аутсорсинг компьютерам, принимающим решения, есть работа современных Петровых и других людей, которым поручено решить, пора ли покончить с человечеством ядерным ударом. . Фактически, этот аутсорсинг командования и управления ядерным арсеналом должен произойти, как недавно утверждали некоторые аналитики политики, поскольку ядерные возможности и вычислительные мощности продвинулись так далеко, что сроки, необходимые для оценки необходимости ответного второго удара - а затем запустить его - уменьшилось с 20 минут во времена Петрова до, возможно, продолжительности песни Lil Nas X.
Центральное место в политике в отношении ядерного оружия занимает концепция сдерживания или взаимного обеспечения разрушение. Ни одна страна не нанесет ядерный удар, потому что это приведет к уничтожению самой страны. По сути, эта доктрина удерживала ядерное оружие из обращения в течение последних 74 лет. Передача контроля над ядерным оружием ИИ рассматривается некоторыми как необходимая адаптация к современным технологиям, которая сохранит понятие сдерживания времен холодной войны.
Итак: Скайнет, но на самом деле. Об этом в настоящее время размышляют аналитические центры, ядерные лаборатории, финансируемые государством, и преподаватели колледжей, которые влияют на ядерную политику и стратегию США. Это хорошая идея?
Есть любители политики, которые считают, что это абсолютно хорошая идея. Двое из них, Адам Лоутер и Кертис Макгиффин, оба бывшие военнослужащие, написали недавний пост для блога о национальной безопасности War On the Rocks, в котором приводятся доводы в пользу управляемого ИИ «отказоустойчивого устройства», мало чем отличающегося от «устройства судного дня» в книге Стэнли Кубрика «Доктор». Странная любовь. По их мнению, ядерное оружие, которое сегодня имеет Российская Федерация, слишком продвинуто для современной обороны США. Решением является ИИ, который сможет определить, была ли атака запущена, и вызовет автоматический ответ даже до первого ядерного взрыва - и все это в сроки, намного более быстрые, чем время, необходимое человеческому мозгу, чтобы сказать: «Вот дерьмо».
Но есть еще много чудаков-политиков, которые считают, что передача контроля над ядерным арсеналом - главный сюжетный момент в Терминаторе, который закончился не так хорошо для человечества - это чрезвычайно плохая идея, которая переворачивает всю доктрину сдерживания, которая на сегодняшний день предотвратила ядерную войну.
Как Вайс отметил ранее в этом месяце, более сильная зависимость от ИИ устраняет человеческий фактор. Убирает таких людей, как Станислав Петров. «Невозможно узнать, что произойдет, если мы уступим контроль над этими системами искусственному интеллекту, но мы знаем вероятность того, что такой человек, как Петров, вмешается, чтобы остановить безумие», - написал Мэтью Голт из Vice.
< p> И если ИИ отвечает, скажем, в Соединенных Штатах, это означает, что другие страны без этого ИИ - скажем, Китай или Россия - с большей вероятностью нанесут первый удар или примут другие контрмеры, «которые могут усилиться первыми». нанести удар по нестабильности и повысить риск преднамеренного, непреднамеренного и случайного применения ядерного оружия », - как написали на прошлой неделе Рафаэль Лосс и Джозеф Джонсон для журнала War on the Rocks, который опубликовал первоначальный аргумент в пользу контролируемой ИИ ядерной «мертвой руки». В то же время они утверждают, что сдерживание - это «чрезвычайно сложная» проблема, которую любой ИИ, которому мешает отсутствие надежных данных, вряд ли сможет предложить решения в ближайшем будущем. Они утверждают, что ИИ не начнет войну, но страны, неуверенные в своих способностях сдерживания или в возможностях конкурирующей нации, использующей ИИ, могут.Но это проблема ИИ - как считают эксперты из global Аналитический центр RAND в прошлом году отметил, что это дестабилизирующая сила, которая вносит неопределенность и сомнения в и без того хрупкое равновесие. «Поддержание стратегической стабильности в ближайшие десятилетия может оказаться чрезвычайно трудным, и все ядерные державы должны будут участвовать в создании институтов, помогающих ограничить ядерный риск», - писали они. Пока что ИИ делает это сложнее, а не проще.
комментариев