Название: Искусственный интеллект. Большие данные. Преступность
Автор: Владимир Овчинский
Издательство: Книжный мир
Жанр: Публицистика: прочее
Серия: Коллекция Изборского клуба
isbn: 978-5-6041495-7-7
isbn:
Другой возможный ответ – лучшая подготовка людей, которые фактически создают ИИ, чтобы они могли сами определять собственное мнение и предубеждение и держать их при себе, не позволяя алгоритму интерпретировать их как факт. У всех есть скрытые предубеждения, и мир технологий только выиграет от того, что поможет людям лучше понять их собственное мировоззрение.
Второй момент, на который следует обратить внимание, в известной степени носит устрашающий характер. Логика развития ИИ состоит в том, что он во все большей степени реализует принцип самодостраивания не только в программной, но и в аппаратной частях. Если пока по входу и выходу информации в нейронных сетях мы можем восстановить способы ее обработки и соответственно получить человекочитаемые правила и алгоритмы, то в ближайшее время ситуация изменится. Так, в разведывательном сообществе используются комплексы со столь глубокими нейронными сетями, что перевести их алгоритмы на человекочитаемый язык за разумное время просто невозможно. Таким образом, мы оказываемся в мире, где принятие решений будет происходить на основе критериев, которые непонятны людям, принимающим решения.
Казалось бы, в этой ситуации проще всего установить запрет на дальнейшее углубление нейронных сетей, а также на применение некоторых иных методов программирования, типа рекуррентного вероятностно-логического вывода. Однако проблема в том, что чем глубже сеть, тем она эффективнее. В высококонкурентном мире на протяжении всей истории действовал принцип, когда каждый старался заполучить наиболее эффективный инструмент. Третьей этической проблемой являются этические последствия решений, рекомендованных программами с элементами ИИ, особенно в тех случаях, когда они поддерживают решения, принимаемые не человеком, а роботом. Еще в 2012 г. ведущая международная организация по правам человека поставила перед ООН вопрос о необходимости запрещения автономных боевых систем (роботов), самостоятельно принимающих решения об использовании находящихся у них боевых средств. Несмотря на мощную поддержку со стороны правительств некоторых, в первую очередь европейских государств, решение ООН, обязательное к исполнению, по состоянию на сегодняшний день так и не принято.
Международный Комитет Красного Креста (МККК) с 2014 года постоянно призывает государства ограничить автономность систем вооружений, чтобы гарантировать, что они применяются согласно нормам международного гуманитарного права (МГП).
МККК полагает, что существует вероятность того, что все более автономные системы вооружений могут стать менее предсказуемыми, особенно в случае повышения мобильности, приспособляемости и (или) взаимодействия нескольких систем (например, действующих группой). Снижение предсказуемости результатов применения автономной системы вооружения может указывать на снижение контроля со стороны человека над функционированием СКАЧАТЬ