Американские стратеги и военные инженеры идут по пути создания аналога системы "Скайнет" из фантастических фильмов про "Терминатора".
В США есть довольно много концепций, доктрин и стратегий, где зафиксированы различные новые термины, касающиеся ведения боевых действий. Одним из таких понятий является алгоритмическая война, которое уже используется в документах Министерства обороны США и публикациях по теме конфликтов. Хотя новым оно является весьма относительно — первые дискуссии по теме относятся к 2016 году.
Ряд американских учёных осенью 2016 года предложили концепцию "военного алгоритма" и сопутствующую структуру для "подотчётности по военным алгоритмам". Основная идея такого подхода заключается в том, что на войне, как и во многих других областях современной жизни, власть и сила всё чаще выражаются алгоритмически. Эти учёные определили "военный алгоритм" как любой алгоритм, выраженный в компьютерном коде, который реализуется с помощью сконструированной системы и который способен работать в условиях вооружённого конфликта.
На тот момент, как и всякая новая концепция, алгоритмическая война была не совсем понятным определением, для чего потребовалось создание соответствующей таксономии, то есть разработки терминологического аппарата и разъяснений на всех уровнях решений. Особую озабоченность у американских военных до сих вызывают технологии искусственного интеллекта, "выбор" которых людям трудно или даже невозможно предвидеть, чьи "решения" рассматриваются как "заменяющие" человеческое суждение.
Наряду с предложением "военных алгоритмов" в качестве новой организационной темы, в США рассматриваются вопросы применения автономных боевых систем (то есть вооружённых роботов), связь с международным гуманитарным правом (также известным как право вооружённых конфликтов), международным уголовным правом, передачи оружия, космического пространства и прав человека.
Показательно, что в США уже прорабатываются и возможные сценарии привлечения к ответственности за разработку или использование алгоритмов ведения войны. То есть в этой сфере, как и в других областях, США хотят застолбить за собой исключительную прерогативу определять и выносить суждение в отношении того, кто, где и при каких условиях может применять "военные алгоритмы", а кто будет являться "нарушителем правил" и военным преступником.
В США есть довольно много концепций, доктрин и стратегий, где зафиксированы различные новые термины, касающиеся ведения боевых действий. Одним из таких понятий является алгоритмическая война, которое уже используется в документах Министерства обороны США и публикациях по теме конфликтов. Хотя новым оно является весьма относительно — первые дискуссии по теме относятся к 2016 году.
Ряд американских учёных осенью 2016 года предложили концепцию "военного алгоритма" и сопутствующую структуру для "подотчётности по военным алгоритмам". Основная идея такого подхода заключается в том, что на войне, как и во многих других областях современной жизни, власть и сила всё чаще выражаются алгоритмически. Эти учёные определили "военный алгоритм" как любой алгоритм, выраженный в компьютерном коде, который реализуется с помощью сконструированной системы и который способен работать в условиях вооружённого конфликта.
На тот момент, как и всякая новая концепция, алгоритмическая война была не совсем понятным определением, для чего потребовалось создание соответствующей таксономии, то есть разработки терминологического аппарата и разъяснений на всех уровнях решений. Особую озабоченность у американских военных до сих вызывают технологии искусственного интеллекта, "выбор" которых людям трудно или даже невозможно предвидеть, чьи "решения" рассматриваются как "заменяющие" человеческое суждение.
Наряду с предложением "военных алгоритмов" в качестве новой организационной темы, в США рассматриваются вопросы применения автономных боевых систем (то есть вооружённых роботов), связь с международным гуманитарным правом (также известным как право вооружённых конфликтов), международным уголовным правом, передачи оружия, космического пространства и прав человека.
Показательно, что в США уже прорабатываются и возможные сценарии привлечения к ответственности за разработку или использование алгоритмов ведения войны. То есть в этой сфере, как и в других областях, США хотят застолбить за собой исключительную прерогативу определять и выносить суждение в отношении того, кто, где и при каких условиях может применять "военные алгоритмы", а кто будет являться "нарушителем правил" и военным преступником.
Комментарии (0)
Добавить
Информация
Комментировать статьи на сайте возможно только в течении 7 дней со дня публикации.
Комментировать статьи на сайте возможно только в течении 7 дней со дня публикации.