Может ли искусственный интеллект стать рукотворным апокалипсисом. Марат Якупов
Чтение книги онлайн.

Читать онлайн книгу Может ли искусственный интеллект стать рукотворным апокалипсисом - Марат Якупов страница 2

СКАЧАТЬ развития человечества мгновенно окажется в разуме личности. Надо просто научиться правильно и вовремя извлекать ее для решения жизненных проблем. Прощайте строгие учителя и профессора, наставники и воспитатели. Почем радость миллионов родителей, плечи которых освобождены от необходимости 15 лет нести финансовые и иные нагрузки по воспитанию ребенка. На то, что организаторы «компьютеризации» человека могут просто контролировать все мысли и стремления будущего человека, внимание не обращается. Также то, что соединение разума личности и интеллекта машины могут вызвать необратимые трагические последствия в виде «восстания» машин, простыми людьми игнорируется. Человек хочет жить легко, радостно и просто – ИИ им это дает.

      Мы страшимся уподобляться престарелому императору Австрии, которые не признавал электрическое освещение и удобные туалеты в своем дворце. Развитие научной сферы и новых технологий – это божественная закономерность, ибо мир дан человеку для познания и использования. Все дело в принципе «Золотой середины», который признается учением буддизма и ислама. Не должен быть диалектический переход от одной крайности в другую. От игнорирования полезности до игнорирования деструктивных последствий искусственного интеллекта.

      Естественно, что подавляющееся большинство ученых предполагает разрушительные последствия своих прорывных теории. Поэтому вполне объяснимы требования к феномену искусственного интеллекта в стадии разработки и внедрения. Самое первое из них – это создание гарантий безопасности, то есть формирование тех или иных реальных ситуации, грозящих человеку. Независимо, намеренно или ненамеренно это происходит. Поэтому одним из важных требований системам ИИ выступает проведение специальных испытаний в сфере безопасности. Учитывая то, что искусственный интеллект может действовать как автономная система, необходимо внедрить в его программы информацию об ответственности перед людьми. Данная задача включает создание таких алгоритмов в ИИ, которые бы исключали формирование недоступных самым разработчикам или эксплуатирующим системы людям информации и операции.

      Как указывает Николаенко Ю. «Применение искусственного интеллекта НЕ ДОЛЖНО включать:

      – вероятность причинения любого вреда;

      – оружие или того, что может непосредственно ранить других;

      – системы наблюдения, нарушающие международно признанные нормы;

      – цели, которые противоречат международному праву и правам человека.

      McKinsey занимается исследованиями инициатив искусственного интеллекта, направленных на общественное благо. В них рассматриваются области социального блага, в которых ИИ может быть применен, возможности ИИ и риски. Исследователи компании проанализировали существующие проекты и собрали базу данных из 160 примеров использования ИИ для социального блага. Они варьируются от диагностики рака до помощи слепым СКАЧАТЬ