Название: Искусственный интеллект. Большие данные. Преступность
Автор: Владимир Овчинский
Издательство: Книжный мир
Жанр: Публицистика: прочее
Серия: Коллекция Изборского клуба
isbn: 978-5-6041495-7-7
isbn:
В 2016 г. группа известных благотворителей учредила фонд для финансирования исследований в области права и контроля над ИИ. Среди учредителей П. Омидьяр, Фонд Гейтсов, основатель Linkedln Р. Хоффман, основатель Goggle Л. Пейдж и т. п. Сейчас в фонде находятся 30 млн. долларов, которые будут расходоваться на оплату работы юристов.
Серьезной и оправданной является инициатива международного Института инженеров электротехники и электроники (IEEE). Он представил первую версию «Стандартов по созданию роботов и искусственного интеллекта». Стандарт получил название Ethically Aligned Design. Документ был разработан при участии Google, Facebook, Amazon, IBM, и 300 членов Global Initiative.
Предполагается, что Ethically Aligned Design установит для производителей роботов и программ ИИ неписаные правила. В частности, предлагается на срок до четырех лет рекомендовать разработчикам не создавать нейронных сетей более пяти слоев. Такие сети являются, по сути, принципиально не-вскрываемым черным ящиком, и соответственно принципы принятия тех или иных решений невозможно будет записать в виде алгоритмов, переводимых на человекочитаемый язык.
В стандарте предусмотрено, что Институт рекомендует государствам, где развиваются робототехнические разработки, и компаниям, создающим программы с использованием ИИ, создать надзорные органы за процедурой разработки и применения интеллектуальных и автономных систем, а также руководствоваться при разработке национальных стандартов и технических регламентов выпущенным стандартом.
Среди юристов имеются различные точки зрения относительно юридического ограничения научно-технических и программных разработок. С одной стороны, какое-то законодательство необходимо. С другой стороны, как показывает история, еще ни разу путем применения юридических мер не удалось приостановить научно-технические разработки или распространение технологий. Даже применительно к чрезвычайно затратному и не допускающему маскировки производству ядерного оружия, не удалось выполнить соглашение о его нераспространении.
В 2016 г. впервые пять безвинных людей, из них две женщины и один ребенок, были убиты полностью автономным боевым дроном, использованным британским подразделением в Афганистане. Дрон нанес удар по деревне из-за сбоя в системе визуального распознавания цели. Это был принципиально новый дрон. В нем для повышения точности боевых ударов и распознавания целей использовался двойной контроль. Как это часто бывает, более сложная техническая система дала сбой, и случилось то, что случилось. При этом министерство обороны и министерство юстиции Великобритании списали все на несчастный случай.
В 2017 году ФБР вместе с юридической школой университета Майами провело конференцию по юридическим последствиям использования в правоохранительной деятельности автономных роботизированных СКАЧАТЬ