350 руб
Журнал «Нейрокомпьютеры: разработка, применение» №11 за 2010 г.
Статья в номере:
Распределенное нейросетевое решение задачи классификации на основе выборочной кластеризации данных
Авторы:
В. В. Аюев - к. т. н., доцент кафедры ФН1-КФ Калужского филиала МГТУ им. Н. Э. Баумана. E-mail: Vadim.Ayuyev@gmail.com
Аннотация:
Описана модель решения задачи классификации непрерывных данных в реальном масштабе времени на основе оценки значимости атрибутов, выборочной кластеризации и дальнейшего независимого обучения массива нейронных сетей на каждом кластере. Сравнительный анализ с распространенными альтернативами на несбалансированной выборке данных выявил высокую эффективность модели в смысле основных показателей классификации и времени обучения.
Страницы: 45-53
Список источников
  1. Айвазян С. А., Бухштабер В. М., Енюков Е. С. и др. Прикладная статистика. Классификация и снижение размерности - М.: Финансы и статистика. 1989.
  2. Tan, P. N., Steinbach, M., Kumar, V. Introduction to Data Mining. New York: Addison Wesley, 2005.
  3. Luger, G. F., Artificial Intelligence. Structures and Strategies for Complex problem Solving. 5-thEdition. Hearlow: AddisonWesley. 2005.
  4. Логинов Б. М., Аюев В. В. Нейросетевые агенты в задачах управления с разделением по времени входными данными высокой размерности // Нейрокомпьютеры: разработка, применение. 2007. № 5. С. 29-39.
  5. Аюев В. В., Тура А., Лайнг Н. Н. и др. Метод быстрой динамической кластеризации неоднородных данных // Системы управления и информационные технологии. 2008. № 3(33). С. 26-29.
  6. Аюев В. В., Карпухин П. А. Кластерный метод подбора параметров и обучения на неполных данных искусственных нейронных сетей Хехт-Нильсона // Информатика и системы управления. 2009. № 1(19). С. 91-103.
  7. Аюев В. В., Аунг З. Е., Тейн Ч. М. и др. Кластерный метод восстановления пропусков в данных для обучения ИНС // Нейрокомпьютеры: разработка, применение. 2009. № 7. С. 23-34.
  8. Imam, I. F., Michalski, R. S., Kerschberg, L., Discovering Attribute Dependence in Datasets by Integrating Symbolic Learning and Statistical Analysis Techniques // Knowledge Discovery and Databases Workshop-93. New York. 1993. P. 264-275.
  9. Тархов Д. А. Нейронные сети. Моделииалгоритмы. Кн. 18. / Общ. ред. А. И. Галушкина. М.: Радиотехника. 2005.
  10. Bock, R. K., Chilingarian, A., Gaug, M., et al. Methods for multidimensional event classification: a case study using images from a Cherenkov gamma-ray telescope // Nuclear Instruments and Methods in Physics Research. 2004. V. 516. P. 511-528.
  11. Хайкин С. Нейронные сети. Полный курс. 2-е изд. испр. М.: Вильямс. 2006.
  12. Cufoglu, A., Lohi, M., Madani, K., Classification accuracy performance of Naïve Bayesian (NB), Bayesian Networks (BN), Lazy Learning of Bayesian Rules (LBR) and Instance-Based Learner (IB1) ? comparative study // International Conference on Computer Engineering & Systems. Cairo. 2008. P. 210-215.
  13. Pooch, U. W., Translation of Decision Tables // ACM Computing Surveys. 1974. V. 6. No. 2. P. 125-151.
  14. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. Множественная регрессия. 3-е изд. М.: Диалектика. 2007.
  15. Kohavi, R., Scaling Up the Accuracy of Naive-Bayes Classifiers: A Decision-Tree Hybrid // Proc. In 2-nd Int. KDDM Conference. Portland. 1996. P. 202-207.
  16. Cohen, J.,A Coefficient of Agreement for Nominal Scales // Educational and Psychological Measurement. 1960. V. 14. P. 37-46.
  17. Agresti, A., Categorical Data Analysis. Hoboken: John Wiley and Sons. 2002.
  18. Burset, M., Guigo, R., Evaluation of gene structure prediction programs // Genomics. 1996. No. 34. P. 353-367.
  19. Dvorak, J., Savicky, P., Softening Splits in Decision Trees Using Simulated Annealing // Proceedings of ICANNGA-07. Warsaw. 2007. P. 721-729.
  20. McGill, R., Tukey, J. W., Larsen, W. A., Variations of Boxplots // The American Statistician. 1978. V. 32. P. 12-16.