ПОВТОРНЕ ВИКОРИСТАННЯ НЕЙРОННИХ МЕРЕЖ З ДЕКІЛЬКОМА ЕКЗЕМПЛЯРАМИ В ЗАДАЧАХ ЕКСПЛУАТАЦІЇ І РЕМОНТУ ЕЛЕКТРОТРАНСПОРТУ
Array
Ключові слова:
експлуатація електротранспорту, багаторівневе навчання, нейронні мережі, глибоке навчання, наскрізне навчанняАнотація
Останнім часом нейронні мережі и багаторазові навчання (MIL) є привабливими темами в дослідницьких областях, пов'язаних зі штучним інтелектом. Глибокі нейронні мережі домоглися великих успіхів в контрольованих проблеми навчання, а MIL як типовий слабо контрольованій метод навчання є ефективний для багатьох додатків в області комп'ютерного зору, біометрії, і т. д.
Посилання
Dietterich , T.G. , Lathrop , R.H. , Lozano-Pérez , T. (1997) Solving the multiple instance problem with axis-parallel rectangles, Artif. Intell., 89 (1), 31–71.
Amores, J. (2013) Multiple instance classification: review, taxonomy and comparative study, Artif. Intell., 201, 81–105.
Hinton , G. , Osindero , S. , Teh , Y.W. (2006) A fast learning algorithm for deep belief nets, Neural Comput., 18 (7), 1527–1554.
LeCun , Y. , Bottou , L. , Bengio , Y. , Haffner , P. (1998) Gradient-based learning applied to document recognition, Proc. IEEE, 86 (11), 2278–2324.
Krizhevsky, А. , Sutskever , I. , Hinton , G.E. (2012) Imagenet classification with deep con- volutional neural networks, in: NIPS, 1097–1105.
Williams , R.J. , Zipser , D. (1989) A learning algorithm for continually running fully re- current neural networks, Neural Comput., 1 (2), 270–280.
Hochreiter , S. , Schmidhuber , J. (1997) Long short-term memory, Neural Comput., 9 (8), 1735–1780.
Ramon , J. , De Raedt , L. (2000) Multi instance neural networks, in: Proceedings of the ICML-20 0 0 Workshop on Attribute-Value and Relational Learning, 53–60.
Zhou , Z.-H. , Zhang , M.-L. (2002) Neural networks for multi-instance learning, in: Pro- ceedings of the International Conference on Intelligent Information Technology, Beijing, China, 455–459.
Andrews , S. , Tsochantaridis , I. , Hofmann , T. (2002) Support vector machines for multiple-instance learning, in: NIPS, 561–568 .
Srivastava , N. , Hinton , G. , Krizhevsky , A. , Sutskever , I., Salakhutdinov , R. (2014) Dropout: a simple way to prevent neural networks from overfitting, JMLR, 15 (1), 1929–1958.
Nair , V. , Hinton , G. (2010) Rectified linear units improve restricted Boltzmann ma- chines, in: ICML, 807–814.
Lee , C.Y. , Xie , S. , Gallagher , P. , Zhang , Z. , Tu , Z. (2015) Deeply-supervised nets, in: AIS- TATS, 562–570.
He, K. , Zhang, X. , Ren, S. , Sun, J. (2015) Deep residual learning for image recognition, arXiv:1512.03385.
Zhang , M.-L. , Zhou , Z.-H. (2004) Improve multi-instance neural networks through fea- ture selection, Neural Process. Lett,. 19 (1), 1–10.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Автори, які публікуються у цьому збірнику, погоджуються з наступними умовами:
- Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії CC BY-NC-ND 4.0 (із Зазначенням Авторства – Некомерційна – Без Похідних 4.0 Міжнародна), котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
- Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
- Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).