Название: Искусственный интеллект. Большие данные. Преступность
Автор: Владимир Овчинский
Издательство: Книжный мир
Жанр: Публицистика: прочее
Серия: Коллекция Изборского клуба
isbn: 978-5-6041495-7-7
isbn:
В течение 2015–2016 гг. агенты под прикрытием и осведомители ФБР и полиции США неоднократно сообщали, что преступные синдикаты по-прагматичному серьезно обсуждали различные варианты убийств, используя насыщенные электроникой автомобили, умные дома, медицинские комплексы и т. п. Поскольку у преступников обычно мысли не расходятся со словом, а слово – с делом, вполне можно ожидать появления в Америке принципиально нового явления.
ФБР всерьез готовится к появлению подпольного синдиката, специализирующегося на заказных высокотехнологичных убийствах, замаскированных под технические инциденты различного рода. Принимая во внимание объем рынка заказных убийств в США, составляющий около 2 млрд, долларов в год, мы ожидаем появление такого сетевого синдиката, а скорее всего не одного, а нескольких, во временном интервале одного-двух лет.
Главным инструментом подобных синдикатов должны быть не хакерские программы сами по себе, а ИИ. Тонкость здесь в следующем. Различного рода автоматизированные автономные системы в подавляющем большинстве управляются из единого вычислительного центра, функционирующего как ИИ. Это позволяет осуществлять роевое обучение. Соответственно, подключиться и заместить команды одного ИИ может только другой. Программисту это не под силу. Он будет распознан из-за большей медлительности и меньшей алгоритмичности действий и операций.
Плюс только ИИ под силу замаскировать злонамеренное отключение или выполнение несанкционированных действий техническим отказом. Несмотря на некоторую экстравагантность, в ближайшее время данный преступный промысел может стать реальностью.
§ 6. Этика ИИ
В 1942 г. великий Айзек Азимов в рассказе «Хоровод» сформулировал три коротких закона робототехники:
«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».
Эти три закона и являются этикой роботов и ИИ. Однако СКАЧАТЬ