Искусственный интеллект. Большие данные. Преступность. Владимир Овчинский
Чтение книги онлайн.

Читать онлайн книгу Искусственный интеллект. Большие данные. Преступность - Владимир Овчинский страница 20

СКАЧАТЬ проблема состоит в том, что алгоритмисты – это в 90 % случаев математики. Причем подавляющее число из них не имеет второго образования, и испытывают определенные сложности в общении с представителями гуманитарных знаний и профессий, включая юристов, врачей, экономистов, правоохранителей. Суть алгоритма состоит в построении цепочки действий на языке математики тех правил и закономерностей, которые сложились в реальной деятельности. Однако из-за того, что алгоритмисты и предметные специалисты зачастую не понимают друг друга, возникают ошибки в алгоритмах.

      Вторая группа этических проблем связана с интерпретацией результатов программ человеком или автономным автоматизированным устройством. Если тема этики программирования обсуждается последние 15 лет, то вопрос неверных алгоритмов встал буквально в последние два-три года. Как любой сложный вопрос, он имеет множество акцентов. Главная проблемав том, что с массовым применением в программировании метода нейронных сетей даже разработчики, не говоря уже о предметниках, а тем более обычных профессиональных пользователях, как уже отмечалось, перестали понимать, почему программа делает именно такие выводы, а не иные.

      Для того чтобы объяснить коллизию, придется в нескольких словах охарактеризовать отличие нейронных сетей от обычной программы. Обычная программ может быть записана на бумаге, как последовательность операций. Нейронная сеть – это самосовершенствующаяся программа. В ней задается исходно только архитектура и правила изменения удельных весов при принятии решения. Все остальное делает алгоритм. Грубо говоря, нейронные сети – это черные ящики. Известна только информация на входе и на выходе. И больше – ничего.

      В тех случаях, когда нейронные сети помогают превратить фотографии в картины известных художников, никто не задает вопросов, как им это удается. Все восторгаются. Теперь же рассмотрим пример из уголовной практик.

      Специалисты Массачусетского технологического института США(МТ1) еще в 2014 г. разработали программу COMPAS с элементами ИИ. Она применяется в настоящее время как экспертная система во многих судах штатов США для того, чтобы помочь судьям принять решения, рекомендовать ли ожидающим суда присяжных тюремное заключение или освобождение под залог и т. п. Программа успешно работала и получала замечательные отзывы. В итоге наряду с рассмотрением вопросов о выборе между тюремным заключением и освобождением под залог, она стала применяться также при решении вопроса об условно-досрочном освобождении.

      Все было хорошо до тех пор, пока известный портал Propublica.org не опубликовал статью, привлекшую внимание всех США. Портал является электронной площадкой сообщества исследователей, негативно относящихся к ИИ. Группа известных математиков и программистов, входящих в сообщество, детально проанализировала систему COMPAS и смогла расшифровать черный ящик. Математические правила и закономерности, получившиеся в результате работы нейронных систем, удалось СКАЧАТЬ