Искусственный интеллект: начала многомерного строчного множества. Сингулярность неизбежна. Сергей Владимирович Соболенко
Чтение книги онлайн.

Читать онлайн книгу Искусственный интеллект: начала многомерного строчного множества. Сингулярность неизбежна - Сергей Владимирович Соболенко страница 6

СКАЧАТЬ AB, потом BC, потом CD, потом DE и EF. Затем группу трех символов ABC, BCD, CDE и DEF. Затем сравниваем группы четырех символов ABCD, BCDE и CDEF, и наконец пять – ABCDE и BCDEF. Так же мы снижаем оценку схожести, если «слова» отличаются по длине.

      В указанном выше примере правильным решением для программы будет «Стол», поскольку его средневзвешенная оценка общности покажет наименьшее значение из всех. А следующим кандидатом «на вылет» однозначно станет «Акула».

      Пользуясь этим приемом, можно определять лишний элемент в списке достаточно точно. Ошибки здесь допустимы только теоретически, если слова-множества имеют глубокие расхождения в порядке положения «в длину», но на практике такие случаи мне еще не встречались.

      Сыграем в эту игру еще раз:

      AAAAAAABAAB Сила

      AAAAAAABAAA Вес

      AABDABAA Водород

      AAAAAAADC Теория

      Здесь программа отсечет самый инородный объект – Водород. А затем на «вылет» пойдет и Теория.

      2.2 Расширение значений свойствами и их наследование

      Одной картой классификатора – нам не ограничиться. Ведь объекты реального мира имеют массу характеристик и свойств, которые дополняют их смысловые кластеры.

      Поэтому мы можем дополнять характеристики объекта, и сделать это достаточно просто. Необходимо выделить для этого отдельный файл (или базу данных), и там вписывать свойства, в качестве указателя отмечая его «носителя».

      Например, запишем «Лев сильный»:

      ABABACBBBA AAAAAAABAABA

      Или «Лев большие когти»:

      ABABACBBBA AAAAAAABAADAC AAAAAAADAABBAABAABDAA

      Хотя, логичнее было бы наличие больших когтей приписать сразу целому классу объектов, например, хищникам.

      Так и запишем «Хищное большие когти»:

      ABABACB AAAAAAABAADAC AAAAAAADAABBAABAABDAA

      Так с помощью слов-множеств мы сможем умножать знания на подмножества объектов.

      Каков механизм этого?

      Мы знаем что Лев ABABACBBBA это часть подмножества хищное ABABACB.

      ABABACBBBA = ABABACB [+BBA]

      //Лев Хищное

      Поэтому для того чтобы определить, что Льву принадлежат свойства ABABACB, мы найдем в словаре свойств слово-множество ABABACB и сравним, является ли оно «головой» объекта Лев ABABACBBBA. Мы выяснили, что это так, и запомнили.

      Теперь, спросив о свойствах Льва система может уверенно ответить свойствами Хищного, если таковые у нас присвоены. Так мы получим на вопрос о свойствах Льва ответ «Большие когти». Точно такой же ответ мы уже получим и на вопрос о свойствах Тигра, Пантер, Гепарда, Медведя, Волка и десятках других известных системе животных, относящихся к Хищным, а также всем подклассам, видам и семействам, находящимся на уровень выше. Таким образом, одно единственное знание многократно «размножилось», не составив никакого труда. Умножение знаний является одним из уникальных свойств многомерного множества.

      В MSM каждое новое знание умножается на все подклассы множества.

      P=P*N где P – элемент свойства, а N- число всех элементов подклассов множества.

      В описанном СКАЧАТЬ