тятя-тятя, наши сети
Dec. 7th, 2016 09:07 pmА вот есть у нас нейросети и байесианские сети. В байесианских сетях последовательно соединяются несколько уровней байесианского вывода. Но ведь и в нейросетях каждый нейрон - байесианская машина, вычисляющая одну гипотезу. Вот это сложение входных сигналов умноженных на коэффициэнты - это байесианское умножение верояности гипотезы согласно имеющимся событиям, только выраженное через логарифмы. Нелинейная функция в конце нейрона - это решение о том, принимаем ли мы гипотезу истинной или ложной исходя из того, преодолела ли вероятность некий порог. Разница между двумя сетями получается только в том, что в байесианских сетях гипотезы выбираются вручную, а в нейросетях - автоматически, в процессе обучения (начиная от случайных, и далее через backpropagation). Спрашивается, почему их все еще различают как два отдельных типа сетей?
no subject
Date: 2016-12-08 05:13 am (UTC)no subject
Date: 2016-12-08 06:23 am (UTC)no subject
Date: 2016-12-08 07:37 am (UTC)no subject
Date: 2016-12-08 11:09 pm (UTC)Про логарифмы - ну, я не совсем точно выразился, там при этом еще и вместо вероятностей используются веса/шансы. Надо будет собраться и прописать в деталях. Я когда-то это уже делал, но не записал, поэтому одной ссылки на запись у меня нет. Но это вычисления той же формы, что и используются в Адабусте, и там вот как умножения превращяются в суммы с логарифмами, и как их можно вернуть назад:
http://babkin-cep.blogspot.com/2016/05/adaboost-in-simpler-formulas-2.html
байесовы вычисления туда привязываются как в
http://babkin-cep.blogspot.com/2016/05/adaboost-3-and-bayesian-logic.html
через изображение байесовых вычислений в терминах весов:
http://babkin-cep.blogspot.com/2016/05/summary-of-bayes-by-weight.html