Название: Может ли искусственный интеллект стать рукотворным апокалипсисом
Автор: Марат Якупов
Издательство: Издательские решения
isbn: 9785006055414
isbn:
Мы страшимся уподобляться престарелому императору Австрии, которые не признавал электрическое освещение и удобные туалеты в своем дворце. Развитие научной сферы и новых технологий – это божественная закономерность, ибо мир дан человеку для познания и использования. Все дело в принципе «Золотой середины», который признается учением буддизма и ислама. Не должен быть диалектический переход от одной крайности в другую. От игнорирования полезности до игнорирования деструктивных последствий искусственного интеллекта.
Естественно, что подавляющееся большинство ученых предполагает разрушительные последствия своих прорывных теории. Поэтому вполне объяснимы требования к феномену искусственного интеллекта в стадии разработки и внедрения. Самое первое из них – это создание гарантий безопасности, то есть формирование тех или иных реальных ситуации, грозящих человеку. Независимо, намеренно или ненамеренно это происходит. Поэтому одним из важных требований системам ИИ выступает проведение специальных испытаний в сфере безопасности. Учитывая то, что искусственный интеллект может действовать как автономная система, необходимо внедрить в его программы информацию об ответственности перед людьми. Данная задача включает создание таких алгоритмов в ИИ, которые бы исключали формирование недоступных самым разработчикам или эксплуатирующим системы людям информации и операции.
Как указывает Николаенко Ю. «Применение искусственного интеллекта НЕ ДОЛЖНО включать:
– вероятность причинения любого вреда;
– оружие или того, что может непосредственно ранить других;
– системы наблюдения, нарушающие международно признанные нормы;
– цели, которые противоречат международному праву и правам человека.
McKinsey занимается исследованиями инициатив искусственного интеллекта, направленных на общественное благо. В них рассматриваются области социального блага, в которых ИИ может быть применен, возможности ИИ и риски. Исследователи компании проанализировали существующие проекты и собрали базу данных из 160 примеров использования ИИ для социального блага. Они варьируются от диагностики рака до помощи слепым СКАЧАТЬ