METHODS OF IMPROVING NEURAL NETWORK SYSTEMS EFFICIENCY IN CONDITIONS OF LIMITED DATA SETS WITH COMPLEX CORRELATIONS

Abstract


Methods are described that make it possible to increase the efficiency of using neural network systems used in areas for which it is difficult to collect a large amount of data to form a training set: a method for detecting anomalous observations in a variety of empirical data, a method for calculating the informativeness of the input parameters of a neural network model, a method for tuning the sensitivity of learning algorithms to errors first and second kind and two methods to improve the accuracy of forecasting the development of complex processes in time using neural networks models.

Full Text

Введение В настоящее время все большее практическое применение находят системы, основанные на инструменте искусственных нейронных сетей (ИНС). Они нашли применение практически во всех областях человеческой деятельности: экономике, социологии, экологии, медицине и т.д. Для создания таких систем необходимо иметь качественную выборку данных для обучения и тестирования нейронной сети, но в силу большого числа факторов, отрицательно влияющих на качество выборки, это становится непростой задачей. Одним из путей решения указанной проблемы является использование выборок большого объема и нейронных сетей глубокого обучения. Но не во всех задачах возможно собрать достаточный объем данных, а сети глубокого обучения в большинстве своем предназначены для анализа данных большой размерности. В этом случае необходимо иметь возможность извлекать как можно больше информации из имеющегося набора данных при помощи нейросетевых архитектур, предназначенных для обработки небольших объемов данных. Однако чем меньше набор данных, тем большее отрицательное влияние на него оказывают такие факторы, как наличие аномальных наблюдений, недостаток или большое количество входных параметров. Кроме того, в практике нейросетевого моделирования часто встречаются задачи, характеризующиеся наличием сложных внутрисистемных связей между входными параметрами, что является препятствием создания качественных нейросетевых моделей, в том числе предназначенных для прогнозирования процессов, развивающихся во времени. Примерами таких задач являются персонифицированные диагностика, прогнозирование развития и лечение заболеваний, при решении которых должны в максимальной степени учитываться особенности каждого конкретного человека, при том что собрать большой объем обучающей выборки довольно сложно, а входные параметры связаны между собой сложными корреляционными зависимостями, не имеющими строгого математического описания. 1. Метод выявления аномальных наблюдений Методы обнаружения аномалий (выбросов) в данных в совокупности различаются в зависимости от типа аномальных наблюдений. Каждый метод имеет свои границы применения, особенности и формат представления результата. Ряд методов может использоваться в случае больших выборок необработанных или минимально обработанных данных, к которым может применяться закон больших чисел [1]. Наиболее популярны следующие методы выявления аномальных наблюдений: - метод Тьюки, основанный на расчете межквартильного расстояния и построенных на его основе диаграммы «ящик с усами» и гистограммы; - визуальный анализ стебельчато-листового графика; - определение единичного значения как аномалии на основе Z-оценки и модифицированной Z-оценки; - тест Граббса для единственного наблюдения; - выявление аномалий на основе усеченных средних и другие способы. Простейшая процедура заключается в статистическом анализе наименьшего или наибольшего значения как наблюдений, которые можно считать аномальными. Однако она выполняет анализ лишь одного наблюдения и подразумевает анализ одномерных наблюдений, подчиняющихся нормальному закону распределения [2]. Для этой процедуры предложено несколько критериев. Для обнаружения грубых ошибок применяется Т - критерий Граббса [2, 3]. Данный критерий имеет некоторые недостатки: он не точен и нечувствителен к аномалиям, когда они обособлены на некотором расстоянии от общей совокупности [4]. Для оценки грубых ошибок применяют L- и E-критерии, предложенные американскими статистиками Г. Тритьеном и Г. Муром. В статистике и регрессионном анализе также для выявления аномальных наблюдений применяются методы на основе анализа удаленных остатков и его модификации: расстояние Кука (Cook's distance), модифицированное расстояние Кука, стьюдентизированные остатки, DFFITS, стандартизованные DFFITS и др. [5, 6]. К недостаткам статистических методов относятся: требование нормального закона распределения, малый или большой объем выборки, одномерность данных, возможность обнаружения только сильных или одиночных аномалий, наличие предварительно построенной регрессионной модели. Кроме того, в большинстве своем они предназначены для поиска аномалий в самой структуре данных, а не в структуре зависимости. При обучении нейросетевой модели вместо критерия наименьших квадратов возможно использование робастных аналогов. Так, в работе [7] приведено несколько таких функций и описано их практическое применение. В работе [8] предложен робастный гибридный алгоритм, сочетающий обнаружение аномалий путем оптимизации критерия наименее урезанных квадратов (least trimmed squares, LTS), их удаления и последующего обучения ИНС путем алгоритма обратного распространения ошибки. Отметим, однако, что в этом случае под робастностью понимается обучение сети на множестве с уже удаленными аномальными наблюдениями. В работе [9] применяется критерий наименьшей медианы квадратов (least median of squares, LMS) в сочетании с генетическими алгоритмами. Это дает хорошие результаты, но требует больших вычислительных ресурсов. Автором предложен метод выявления аномальных наблюдений в обучающем множестве, основанный на методе анализа удаленных остатков, отличающийся использованием нейросетевой модели вместо регрессионной [10, 11]. Метод заключается в поочередном исключении примеров из обучающего множества и последующей оценке изменения погрешностей ИНС, обученной на этих обучающих выборках, при прочих равных условиях. Блок-схема алгоритма реализации этого метода представлена на рис. 1. На базе данного алгоритма поочередного исключения примеров возможно реализовать ряд алгоритмов для выявления аномальных наблюдений, которые отличаются последним шагом, а именно процедурой анализа влияния удаления каждого из примеров на показатели нейросетевой модели, полученные в результате работы алгоритма. Ниже приведены два таких алгоритма, которые назовем «Анализ ошибки обучения» (алгоритм 1) и «Анализ ошибки обобщения» (алгоритм 2). Алгоритм 1 основывается на том факте, что при отсутствии аномальных наблюдений в обучающем множестве процесс обучения будет иметь лучшую сходимость и средняя среднеквадратичная ошибка обучения, вычисляемая после завершения процесса обучения по формуле где - обучающее множество с исключенным p-м примером; - значение j-го выходного сигнала ИНС для q-го обучающего примера; - желаемое значение j-го выходного сигнала для q-го обучающего примера; - число нейронов в выходном слое; - количество примеров в обучающем множестве, - будет меньше по сравнению с тем же показателем на множестве, в котором этот пример присутствует. Как показал опыт, алгоритм 1 хорошо работает на небольших обучающих множествах, менее ста элементов, в которых встречается не больше одного аномального примера. Таким образом, невозможность работать с большими множествами можно отнести к недостаткам алгоритма. Рис. 1. Блок-схема алгоритма обнаружения аномальных наблюдений с использованием поочередного исключения примеров Это связано с тем, что при увеличении размера множества возрастает вероятность присутствия в нем нескольких равноправных аномальных наблюдений и при исключении одного из них среднеквадратичная ошибка на всем множестве не опустится в связи с наличием дополнительных аномальных наблюдений. Еще одним недостатком можно считать большой объем вычислений, необходимых для выполнения алгоритма, которые обусловлены шагом повторного обучения ИНС для каждого примера в обучающем множестве. К ограничениям также стоит отнести требование к отсутствию гиперразмерности в структуре нейронной сети, что выражено в чрезмерно большом количестве нейронов скрытого слоя. В случае присутствия гиперразмерности ошибка обучения будет неизменно низкой, так как моделируемая нейросетью функция сможет пройти через все точки обучающего множества [12]. Для выборок, содержащих более ста элементов, предлагается применять алгоритм 2. Идея этого алгоритма основана на том факте, что если р-й пример является аномальным, то после обучения сети на множестве, не содержащем этого примера, среднеквадратичная ошибка обобщения сети на этом примере будет больше, чем она же, вычисленная на наблюдениях без аномалий: (1) где - значение выходного сигнала ИНС для р-го обучающего примера; - желаемое значение выходного сигнала для р-го обучающего примера. Если в обучающей выборке помимо примера с номером имеются и другие аномальные наблюдения, то, несмотря на это, ошибка (1) для р-го аномального наблюдения по-прежнему будет больше ошибок примеров без аномалий. 2. Метод вычисления информативности входных параметров нейросетевой модели Наличие данных об относительной информативности каждого из входных параметров позволяет использовать сокращенный набор входных параметров, а также упростить структуру ИНС. Для решения этой задачи часто используется метод вычисления корреляции Пирсона, который хорошо подходит для описания линейных зависимостей или близких к ним, ранговые коэффициенты корреляции Фехнера, Кендалла, Спирмена, множественной ранговой корреляции, чувствительные только к упорядоченным значениям переменных. Кроме того, для этих целей применяется коэффициент детерминации R2 и его модификации, которые решают часть проблем, присущих стандартным методам, но требуют построения адекватной регрессионной модели, что не всегда возможно в задачах, в которых применяется аппарат ИНС. В связи с этим при разработке нейросетевых моделей применяются специализированные методы вычисления информативности параметров. В работе [13] предлагается использовать приближенную оценку изменения весовых коэффициентов при активации входных параметров. В работе [14] рекомендовано строить матрицы влияния входов путем анализа сил синаптических связей от входных нейронов к выходным, после чего отбрасывать незначимые входные параметры, повторяя данную процедуру несколько раз. Недостатками этого метода можно считать высокую вычислительную сложность и ограничение нейросетевыми моделями с прямым распространением сигнала. В работе [15] этот метод сравнивается с анализом нечетких кривых для определения степени влияния входных параметров на выходные, а также методом анализа среднеквадратичной ошибки при удалении параметров и делается вывод о том, что метод анализа нечетких кривых дает наилучшие результаты. В работе [16] приведено сравнение девяти методов определения значимости входных параметров нейросетевой модели: 1) объединенные веса, 2) алгоритм Гарсона, 3) частные производные, 4) возмущение входного сигнала, 5) анализ чувствительности, 6) прямое пошаговое добавление, 7) обратное пошаговое исключение, 8) улучшенный пошаговый выбор 1, 9) улучшенный пошаговый выбор 2. В указанной работе делается вывод о том, что наилучшие результаты дает первый метод. Однако первые два метода применимы только для нейросетевых моделей с одним скрытым слоем. Третий требует большого объема вычислений для моделей с большим числом входных параметров. Недостатком четвертого метода является то, что при добавлении шума в значения входного параметра новые значения коррелируют с прежними, что снижает влияние этой замены. Пятый имеет точность вычисления значимости, сравнимую с методами под номерами 3, 4, 8, 9 на уровне 70 %. Методы 6-8 изменяют структуру нейронной сети, что делает сравнение результатов обучения этих сетей неустойчивым. Девятый может давать плохие результаты, когда значения параметра имеют небольшой разброс относительно их среднего значения, также на качество такой оценки оказывают большое влияние выбросы. В работе [17] для устранения некоторых из описанных выше недостатков предлагается метод, названный методом рандомизации входного параметра (holdback input randomization method, HIPR), в котором вместо удаления параметров путем изменения структуры сети или добавления белого шума предлагается заменять компоненты входного вектора на равномерно распределенные случайные величины в диапазоне [0,1; 0,9], а затем оценивать влияние такой замены на ошибку прогнозирования. В связи с этим автором предлагается метод определения информативности входных параметров, основанный на применении ИНС. Идея предлагаемого метода основывается на том факте, что при замене значений значимого входного параметра на псевдослучайные числа качество нейросетевой модели значительно падает. Алгоритм реализации данного метода выглядит следующим образом: на первом шаге ИНС обучается на исходном множестве L обучающих примеров. В результате обучения будет получена нейросетевая модель Н. На втором шаге вычисляется средняя среднеквадратичная ошибка модели на обучающем множестве Данное значение ошибки используется в качестве эталона для сравнения с ошибками, полученными при дальнейших изменениях обучающего множества. На следующем шаге алгоритма выполняется цикл по всем параметрам исходного обучающего множества с целью определения меры его влияния на конечный результат. Предположим, что параметр несет бόльшую информативность для модели, т.е. какая-либо значащая часть вариации на обучающем множестве объясняется этим параметром, тогда отсутствие этого параметра или искусственная рандомизация его значений во входных векторах повлечет утерю этой доли информативности и увеличение необъясненной вариации, т.е. ошибки , вычисленной на обучающем или тестовом множестве. В методе HIPR для рандомизации используется замена значений входного параметра на равномерно распределенные случайные величины из диапазона [0,1; 0,9]. В данной работе для рандомизации параметра предлагается использовать как можно менее коррелированную случайную величину, желательно имеющую то же, или похожее, распределение Чтобы получить такую случайную величину, было предложено использовать значения параметра , перемешанные в случайном порядке. К преимуществам данного метода по сравнению с другими методами вычисления зависимости переменных относится более точная оценка силы зависимости для нейросетевых моделей в условиях ограниченных объемов выборок со сложными корреляционными связями. 3. Метод настройки чувствительности алгоритмов обучения ИНС к ошибкам первого и второго рода Алгоритмы обучения ИНС обычно минимизируют среднеквадратичную ошибку обучения, поэтому ошибки первого и второго рода учитываются в равной степени. В общем случае это является оправданным подходом, однако в определенных областях, например в медицинской диагностике, эти два вида ошибок имеют разную важность и смысл. В некоторых работах эти характеристики рассчитываются как итоговый показатель качества диагностической ИНС [18-22]. Ввиду упомянутой выше равнозначности ошибок первого и второго рода при обучении нейросетевых моделей показатели специфичности и чувствительности находятся примерно на одном уровне, как, например, 96 и 97 % соответственно в работе [23]. В работе [24] для решения данной проблемы обучались две сети: одна - на больных с низкой вероятностью заболевания, вторая - на примерах с высокой вероятностью заболевания. В результате при диагностировании анализировались результаты, выдаваемые обеими сетями одновременно, что позволяло получить две отдельные нейросетевые модели с высокой специфичностью и чувствительностью. Описываемый в данной работе метод заключается в модификации функции потерь при обучении нейронной сети, что позволяет варьировать уровень чувствительности и специфичности получаемой нейросетевой модели [25]. Определим функцию нелинейного масштабирования: где - некоторые весовые коэффициенты. Для удобства записи также определим функцию симметричного нелинейного масштабирования . Пусть - среднеквадратичная ошибка, где - размерность выходного вектора; и - желаемое и действительное значение соответственно. Применив функцию для масштабирования исходных отклонений , при вычислении среднеквадратичной ошибки получим . (2) При это выражение эквивалентно среднеквадратичной ошибке Тогда - среднеквадратичная ошибка, в которой учтены только отклонения, имеющие положительный знак. Знаменатель оставим неизменным, так как сравниваются между собой только ошибки одного класса. Использование конструкции (2) в алгоритмах обучения ИНС с учителем при вычислении значений ошибок и изменение значений параметров и смещает приоритет процесса обучения к пропорциональному уменьшению или увеличению значений выходных параметров, что при интервальной интерпретации выходных значений приводит к соответствующему изменению специфичности и чувствительности получаемой нейросетевой модели. 4. Метод повышения точности прогнозирования развития процессов во времени с использованием ИНС Сценарное прогнозирование развития заболеваний во времени стандартным методом вариации некоторых входных параметров при фиксации остальных параметров имеет определенные проблемы. Дело в том, что в медицине входные параметры моделируемого объекта - организма человека, имеют между собой сложные внутрисистемные корреляционные связи и при изменении одного из входных параметров другие параметры также должны быть изменены согласно этим зависимостям. Первый метод, названный методом экспертной коррекции, для решения данной проблемы использует европейскую шкалу «SCORE» [26], предназначенную для расчета риска смерти от сердечно-сосудистого заболевания в будущие периоды жизни пациента, для корректировки результатов прогнозирования, выдаваемых нейросетевой моделью [27]. Анализ усредненных данных этой шкалы показал, что за пятилетний период от 50 до 55 лет риск смерти от заболевания сердечно-сосудистой системы для среднестатистического пациента увеличивается приблизительно в разa, за десятилетний срок от 50 до 60 лет - в 2,7 раза, за пятнадцатилетний срок от 50 до 65 лет - в 4,3 раза. Допустим, что какому-либо пациенту нейросетевая математическая модель оценила степень развития какого-либо сердечно-сосудистого заболевания как . Требуется выполнить прогноз этой величины на пять лет вперед и исследовать, как будет изменяться этот прогноз с изменением образа и условий жизни пациента. Увеличив на пять лет входной параметр нейросетевой модели кодирующий возраст пациента, и выполняя расчет с помощью ИНС, получаем новое прогнозное значение степени развития заболевания, которое обозначим через Тогда - коэффициент, показывающий, во сколько раз увеличилась степень развития сердечно-сосудистого заболевания рассматриваемого пациента за прогнозируемый пятилетний период. Недостаток метода экспертной коррекции состоит в том, что используются весьма обобщенные экспертные знания о риске наступления смерти от любого из заболеваний сердечно-сосудистой системы. Таким образом, прогнозирование степени развития заболевания, выполненное с использованием данного метода, лишь частично учитывает индивидуальные особенности человека на первом шаге - нейросетевом прогнозе. Для устранения недостатков предыдущего метода прогнозирования автором настоящей работы предлагается использовать идею объединения метода нейросетевого моделирования и метода скользящего окна, который обычно применяется при прогнозировании временных рядов [28]. В работе [29] на примере прогнозирования скорости ветра показано, что применение данного метода в совокупности с методом нейросетевого моделирования позволяет с высокой точностью моделировать сложные нелинейные процессы во времени. Для применения данного метода необходимо иметь множество наблюдений за поведением объекта во времени. В упомянутой выше работе использовалось 8760 измерений скорости ветра с интервалом в час за период одного года. В качестве входных параметров нейросетевой модели использовались измерения за фиксированный промежуток времени, а в качестве выходного - измерение за следующий временной интервал. Однако в условиях ограниченных объемов выборок при прогнозировании поведения множества объектов со сложными корреляционными связями данный способ неприменим. В случае медицинской диагностики такими наблюдениями являются данные о повторных посещениях больным лечащего врача. Суть метода заключается в следующем: пусть имеется история наблюдения за одним пациентом на протяжении временных интервалов. Каждое такое наблюдение представляет собой пару векторов где - входные параметры за t-й временной интервал; - выходные параметры за t-й временной интервал, Сформируем из них примеры обучающего множества, беря в качестве входных параметров значения показателей пациента а в качестве выходных значений - диагнозы за следующий временной интервал Таким образом, мы получим следующее множество из элемента: на основе истории одного пациента. Повторив эту операцию для всех данных, получим множество примеров, которое применимо для обучения и тестирования нейросетевой модели, предназначенной для прогнозирования развития заболевания на один временной интервал вперед. Аналогичным образом можно получить модель для подбора рекомендаций. Сформируем примеры обучающего множества, используя в качестве входных параметров значения всех текущих показателей пациента за текущий временной интервал значения фактических диагнозов за тот же период и тех его показателей за следующий временной интервал, на которые возможно повлиять, а в качестве выходных значений возьмем значения диагнозов за следующий временной интервал Таким образом, из истории одного пациента мы получим следующее множество из элемента: Таким образом, по сравнению с предыдущей моделью на вход были добавлены значения фактических диагнозов за тот же период - это позволило учесть в модели текущее состояние пациента, так как от него зависит развитие заболевания и, соответственно, диагноз. Также от текущего состояния зависит то, какой эффект окажут на пациента те или иные рекомендации или изменение образа жизни. Кроме того, в модель добавлены входы которые задают те рекомендации, которые были даны пациенту и вследствие исполнения которых изменились его диагнозы Процедура построения рекомендаций с использованием данной нейросетевой модели может быть описана следующим алгоритмом: 1. Ввести и зафиксировать текущие показатели пациента и характеристики его образа жизни 2. Ввести и зафиксировать текущие диагнозы 3. Ввести рекомендации по образу жизни и лечению на следующий временной промежуток 4. Подать введенные значения на соответствующие входы нейросетевой модели. 5. Получить на выходе нейросетевой модели прогноз по диагнозам на следующий временной промежуток 6. Повторить шаги 3-5 до получения рекомендаций с наилучшим прогнозом по протеканию заболевания. 5. Результаты тестирования Описанные методы были реализованы в составе нейросетевой диагностической системы. Тестирование проводилось на множестве данных о 1000 пациентах отделения неотложной кардиологии Городской клинической больницы № 4 г. Перми. Использовались следующие показатели эффективности: NRMSE(X) - нормированный корень среднеквадратичной ошибки на множестве X показывает, насколько хорошо соответствуют значения, выдаваемые нейросетевой моделью значениям в выборке X. В качестве проверочной выборки может использоваться тестовая выборка T или подтверждающая выборка С. Выбор данной метрики обусловлен тем, что RMSE придает бόльший вес более сильным отклонениям, что делает RMSE более полезной, когда большие ошибки особенно нежелательны, что актуально в задаче медицинской диагностики. Нормирование RMSE делает ее безразмерной величиной, что позволяет применять ее для сравнения эффективности предложенных в работе метрик. При вычислении качества прогнозирования также приведены значения метрики NRMSE, однако в качестве фактических значений использовались данные за следующий временной промежуток (например 1 год). В таблице представлены сводные данные рассчитанных критериев эффективности до и после применения предложенных в работе методов на примере нозологической формы «инфаркт миокарда». Эффект от применения предложенных методов и алгоритмов Показатель До, % После, % NRMSE(T) 19,86 9,52 NRMSE(C) 21,73 10,72 NRMSE(T, 1 год) 18,51 14,15 NRMSE(C, 1 год) 19,43 14,75 Кроме того, для подтверждения адекватности модели были проведены виртуальные компьютерные эксперименты для трех пациентов, различающихся между собой половозрастными характеристиками, образом и историей жизни. Система поставила диагнозы, представленные в графической форме (рис. 2). а б в Рис. 2. Степени развития заболеваний, диагностированные системой: а - пациент № 1; б - пациент № 2; в - пациент № 3. Риски заболеваний: 1 - инфаркт миокарда, 2 - стенокардия стабильная, 3 - стенокардия нестабильная, 4 - ишемическая болезнь сердца, 5 - гипертоническая болезнь, 6 - аритмия и блокада сердца, 7 - хроническая сердечная недостаточность, 8 - острая сердечная недостаточность Как видно из рис. 2, а, пациенту № 1 поставлены следующие диагнозы: стенокардия стабильная - 100 %, стенокардия нестабильная - 85 %, ишемическая болезнь сердца - 100 %, гипертоническая болезнь - 100 %, аритмии и блокады сердца - 65 %, хроническая сердечная недостаточность - 100 %. У пациента № 2 (рис. 2, б) система обнаружила гипертоническую болезнь - 100 % и хроническую сердечную недостаточность - 22 %. У пациента № 3 (рис. 2, в) - гипертоническую болезнь и хроническую сердечную недостаточность - 100 %, аритмии и блокады сердца - 65 % и острую сердечную недостаточность - 25 %. На рис. 3 в аналогичной форме приведены результаты сценарного прогнозирования развития заболеваний при условии, что пациенты на протяжении 30 последних лет воздерживались от курения. Все остальные параметры пациентов сохранены неизменными. Как видно из рисунка, у пациента № 1 полностью исчезли признаки ишемической болезни сердца: стабильной и нестабильной стенокардии. У пациента № 2 снизился риск хронической сердечной недостаточности. У пациента № 3 отказ от курения привел к возрастанию риска острой сердечной недостаточности на 35 %. Это подтверждает тот факт, что одни и те же рекомендации могут иметь разный эффект для каждого конкретного пациента. а б в Рис. 3. Степени развития заболеваний, диагностированные системой при условии, что пациенты на протяжении последних 30 лет воздерживались от курения: а - пациент № 1; б - пациент № 2; в - пациент № 3. Нозологические формы - см. рис. 2 Обсуждение результатов экспериментов с врачами-кардиологами позволило сделать заключение об адекватности предоставляемых системой вероятностей наличия заболеваний [30, 31]. Кроме того, проведенные компьютерные эксперименты позволили выявить и исследовать новые медицинские знания: показано, что рекомендации по профилактике и лечению кардиологических больных следует давать строго индивидуально с учетом физиологических особенностей организма пациентов. Если для одних пациентов такие рекомендации, как «отказаться от курения», «ограничить употребление сладкого», «принимать препараты, снижающие артериальное давление» и т.д., действительно полезны, то другим больным они могут причинить вред. Выявить таких нестандартных пациентов и избежать ошибочных рекомендаций можно с помощью разработанной нейросетевой рекомендательной системы.

About the authors

F. M Cherepanov

Perm State Humanitarian Pedagogical University

References

  1. Бизнес-статистика: учебник и практикум для академического бакалавриата / И.И. Елисеева [и др.]; под ред. И.И. Елисеевой. - М.: Юрайт, 2019. - 411 с.
  2. Смоляк С.А., Титаренко Б.П. Устойчивые методы оценивания: статистическая обработка неоднородных совокупностей. - М.: Статистика, 1980. - 206 c.
  3. Grubbs F.E. Sample Criteria for Testing Outlying Observations // The Annals of Mathematical Statistics. - 1950. - Vol. 21, № 1. - P. 27-58.
  4. Катковник В.Я. Непараметрическая идентификация и сглаживание данных: метод локальной аппроксимации. - М.: Наука, 1985. - 336 с.
  5. Freund R.J., Wilson W.J., Sa P. Regression Analysis. - Elsevier Science, 2006. - 480 p.
  6. Handbook of psychology, research methods in psychology / I.B. Weiner [et al.]. - Wiley, 2003. - 736 p.
  7. Царегородцев В.Г. Робастная целевая функция с допуском на точность решения для нейросети-предиктора [Электронный ресурс] // Нейрокомпьютеры: разработка, применение - 2003. - Т. 13. - C. 5 - URL: http://neuropro.ru/ mypapers/neurcompmag03_3.pdf (дата обращения: 17.04.2019).
  8. Beliakov G., Kelarev A., Yearwood J. Derivative-free optimization and neural networks for robust regression // Optimization. - 2012. - Vol. 61, № 12. - P. 1467-1490. DOI: https://doi.org/10.1016/0169-7439(95)80041-7
  9. Robust regression and outlier detection for non-linear models using genetic algorithms / P. Vankeerberghen [et al.] // Chemometrics and Intelligent Laboratory Systems. - 1995. - Vol. 28, № 1. - P. 73-87. DOI: https://doi.org/10.1016/0169-7439(95)80041-7
  10. Черепанов Ф.М., Ясницкий Л.Н. Нейросетевой фильтр для исключения выбросов в статистической информации // Вестник Перм. университета. Математика. Механика. Информатика. - 2008. - Т. 4, № 20. - С. 151-155.
  11. Черепанов Ф.М. Выявление аномальных наблюдений в обучающем множестве посредством нейросетевой модели // Проблемы информатики в образовании, управлении, экономике и технике: материалы междунар. науч.-техн. конф. - Пенза: Приволжск. дом знаний, 2014. - С. 210-213.
  12. Ясницкий Л.Н. Введение в искусственный интеллект. - М.: Академия, 2005. - 176 c.
  13. Царегородцев В.Г. Простейший способ вычисления показателей значимости первого порядка для сетей обратного распространения // Нейроинформатика и ее приложения: материалы 10 Всероссийского семинара. - Красноярск: Изд-во КГТУ, 2002. - С. 153-156.
  14. Engelbrecht A.P., Cloete I., Zurada J.M. Determining the significance of input parameters using sensitivity analysis // From Natural to Artificial Neural Computation. - 1995. - P. 382-388. DOI: https://doi.org/10.1007/3-540-59497-3_199
  15. Sung A.H. Ranking importance of input parameters of neural networks // Expert Systems with Applications. - 1998. - Vol. 15, № 3-4. - P. 405-411. DOI: https://doi.org/10.1016/S0957-4174%2898%2900041-4
  16. Olden J.D., Joy M.K., Death R.G. An accurate comparison of methods for quantifying variable importance in artificial neural networks using simulated data // Ecological Modelling. - 2004. - Vol. 178, № 3-4. - P. 389-397. DOI: https://doi.org/10.1016/j.ecolmodel.2004.03.013
  17. Kemp S.J., Zaradic P., Hansen F. An approach for determining relative input parameter importance and significance in artificial neural networks // Ecological Modelling. - 2007. - Vol. 204, iss. 3-4. - Р. 326-334. DOI: https://doi.org/10.1016/j.ecolmodel.2007.01.009
  18. Мустафаев А.Г. Применение искусственных нейронных сетей для ранней диагностики заболевания сахарным диабетом // Кибернетика и программирование. - 2016. - Т. 2, № 2. - С. 1-7. DOI: https://doi.org/10.7256/ 2306-4196.2016.2.17904
  19. A comparison of four data mining models: Bayes, neural network, SVM and decision trees in identifying syndromes in coronary heart disease / J. Chen [et al.] // Advances in Neural Networks - ISNN 2007. Lecture Notes in Computer Science, vol. 4491. - Berlin, Heidelberg: Springer, 2007. - P. 1274-1279. DOI: https://doi.org/1274-1279. 10.1007/978-3-540-72383-7_148
  20. Artificial neural network application in the diagnosis of disease conditions with liver ultrasound images / K. Kalyan [et al.] // Advances in Bioinformatics. - 2014. - Vol. 2014. - P. 1-14. DOI: https://doi.org/10.1155/2014/708279
  21. Raji C.G., Vinod Chandra S.S. Graft survival prediction in liver transplantation using artificial neural network models // Journal of Computational Science. - 2016. - Vol. 16. - P. 72-78. DOI: https://doi.org/ 10.1016/j.jocs.2016.05.005
  22. Diagnostic methods I: sensitivity, specificity, and other measures of accuracy / K.J. van Stralen [et al.] // Kidney International. - 2009. - Vol. 75, № 12. - P. 1257-1263. DOI: https://doi.org/10.1038/ki.2009.92
  23. Computer-aided prediction of long-term prognosis of patients with ulcerative colitis after cytoapheresis therapy / T. Takayama [et al.] // PloS one. - 2015. - Vol. 10. - P. 9. DOI: https://doi.org/10.1371/journal.pone.0131197
  24. Baxt W.G. Improving the accuracy of an artificial neural network using multiple differently trained networks // Neural Computation. - 1992. - Vol. 4, № 5. - P. 772-780. DOI: https://doi.org/10.1162/neco.1992.4.5.772
  25. Черепанов Ф.М. Способ настройки чувствительности к ошибкам первого и второго рода для алгоритмов обучения нейронных сетей // Искусственный интеллект в решении актуальных социальных и экономических проблем ХХI века: сб. ст. по материалам всерос. науч.-практ. конф. / Перм. гос. нац. исслед. ун-т. - Пермь, 2016. - С. 187-192.
  26. Estimation of ten-year risk of fatal cardiovascular disease in Europe: the SCORE project / R.M. Conroy [et al.] // European Heart Journal. - 2003. - Vol. 24, № 11. - P. 987-1003.
  27. Diagnosis and prognosis of cardiovascular diseases on the basis of neural networks / L.N. Yasnitsky [et al.] // Biomedical Engineering. - 2013. - Vol. 47, № 3. - P. 160-163. doi: 10.1007/s10527-013-9359-0
  28. Yasnitsky L.N., Dumler A.A., Cherepanov F.M. The capabilities of artificial intelligence to simulate the emergence and development of diseases, optimize prevention and treatment thereof, and identify new medical knowledge // Journal of Pharmaceutical Sciences and Research. - 2018. - Vol. 10, № 9. - P. 2192-2200.
  29. Application of sliding window technique for prediction of wind velocity time series / M. Vafaeipour [et al.] // International Journal of Energy and Environmental Engineering. - 2014. - Vol. 5, iss. 2. - 105 p. doi: 10.1007/s40095-014-0105-5
  30. Yasnitsky L.N., Dumler A.A., Cherepanov F.M. Dynamic Artificial Neural Networks as Basis for Medicine Revolution // Advances in Intelligent Systems and Computing. - 2018. - Vol. 850. - P. 351-358. doi: 10.1007/978-3-030-02351-5_40.
  31. Ясницкий Л.Н., Думлер А.А., Черепанов Ф.М. Новые возможности применения методов искусственного интеллекта для моделирования появления и развития заболеваний и оптимизации их профилактики и лечения // Терапия. - 2018. - Т. 1, № 19. - С. 109-118.

Statistics

Views

Abstract - 24

PDF (Russian) - 5

Refbacks

  • There are currently no refbacks.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies