Прогнозування попиту на пасажирські перевезення таксі методами нейронної мережі

  • М. І. Згоба Національний університет "Львівська політехніка", м. Львів
  • Ю. І. Грицюк Національний університет "Львівська політехніка", м. Львів https://orcid.org/0000-0001-8183-3466
Ключові слова: інформаційно-аналітична система, конфігурація апаратного забезпечення, машинне навчання, навчання нейронної мережі, пришвидшення процедури навчання, паралелізація процедури навчання

Анотація

Розглянуто особливості прогнозування попиту на пасажирські перевезення таксі методами нейронної мережі за різних наборів вхідних даних, складу параметрів архітектури мережі, конфігурації апаратного забезпечення та його потужності. З'ясовано, що для зменшення тривалості очікування нових замовлень та відстані до клієнтів доцільно використовувати відповідні інформаційно-аналітичні системи, робота яких ґрунтується на штучному інтелекті. Це дасть змогу вирішити проблему попиту на перевезення таксі у відповідний період доби з врахуванням погодних умов, святкових, вихідних і робочих днів, а також пори року. Врахування ж наявних транспортних об'єктів – авіарейсів, потягів чи автобусів значно покращують роботу такої дорадчої системи. Використана в роботі гібридна архітектура нейро-фаззі мережі дає змогу одночасно вирішувати завдання короткотермінового прогнозування попиту на пасажирські перевезення таксі, а також проводити діагностику самої мережі, що полягає у виявленні різких змін властивостей обчислювального процесу. Для досягнення відповідної точності прогнозу в роботі опрацьовано набори вхідних даних у кількості 4,5 млн поїздок таксі. Для зменшення тривалості процедури навчання нейронної мережі організовано паралельні обчислення між різними вузлами мережі за допомогою графічних процесорів. Проведено навчання нейронної мережі на центральному процесорі, одному та двох графічних процесорах відповідно. З'ясовано, що організація паралельних обчислень на декількох графічних процесорах не завжди зменшує тривалість процедури навчання мережі, оскільки витрати на синхронізацію градієнтів між активними процесами значно перевищують користь від паралельних розрахунків. Встановлено, що за умови великого обсягу даних для організації паралельних обчислень та відповідної архітектури нейронної мережі можна досягти деякого зменшення тривалості процедури її навчання. Визначено, що зменшення тривалості процедури навчання нейронної мережі залежить від таких чинників: її архітектури, кількості параметрів навчання, конфігурації апаратного забезпечення та організації паралельних розрахунків.

Біографії авторів

М. І. Згоба, Національний університет "Львівська політехніка", м. Львів

сту­ден­т, ка­фед­ра прог­рам­но­го за­без­пе­чен­ня

Ю. І. Грицюк, Національний університет "Львівська політехніка", м. Львів

д-р техн. наук, професор, кафедра програмного забезпечення

Посилання

Babenko, A. V., Bodyansky, E. V., Popov, S. V., Slipchenko, E. V. (2009). Predictive-diagnostic recurrent neuro-fuzzy network in the problem of controlling electricity consumption. Information processing systems, 3(77), 2–5. Retrieved from: http://nbuv.gov.ua/UJRN/soi_2009_3_3. [In Russian].

Biao Leng, Heng Du, Jianyuan Wang, Li Li, & Zhang Xiong. (2016). Analysis of Taxi Drivers Behaviors Within a Battle Between Two Taxi Apps. IEEE Transactions on Intelligent Transportation Systems, 17(1), 296–300. https://doi.org/10.1109/TITS.2015.2461000

Billings, S. A. (2013). Nonlinear System Identification: NARMAX Methods in the Time, Frequency, and Spatio-Temporal Domains, Wiley, 574 p. Retrieved from: https://www.amazon.com/Nonlinear-System-Identification-Frequency-Spatio-Temporal/dp/1119943590

Bodyanskiy, Y., Popov, S., & Rybalchenko, T. (2008). Multilayer neuro-fuzzy network for short term electric load forecasting. Lecture Notes in Computer Science – Berlin, Heidelberg: Springer-Verlag, 5010, 339–348. Retrieved from: https://link.springer.com/chapter/10.1007/978-3-540-79709-8_34

Cichocki, A., & Unbehauen, R. (1993). Neural Networks for Optimization and Signal Processing. Stuttgart: Teubner, 526 p. Retrieved from: https://www.amazon.com/Neural-Networks-Optimization-Signal-Processing/dp/0471930105

Climate Data Online Search. (2020). National centers for environmental information. Retrieved from: https://www.ncdc.noaa.gov/cdo-web/search

Deng, L., & Yu, D. (2014). Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing, 7(3-4), 1–199. https://doi.org/10.1561/2000000039

Dhiraj, K. (2019). 10 reasons why PyTorch is the deep learning framework of the future. Retrieved from: https://heartbeat.fritz.ai/10-reasons-why-pytorch-is-the-deep-learning-framework-of-future-6788bd6b5cc2

Dsouza, J. (2020). What is a GPU and do you need one in Deep Learning? Retrieved from: https://towardsdatascience.com/what-is-a-gpu-and-do-you-need-one-in-deep-learning-718b9597aa0d

Du, K.-L., & Swamy, M.N.s. (2014). Multilayer Perceptrons: Architecture and Error Backpropagation. Neural Networks and Statistical Learning, pp. 83–126. https://doi.org/10.1007/978-1-4471-5571-3_4

Elman, J. L. (1990). Finding structure in time. Cognitive Science, 14, 179–211. https://doi.org/10.1016/0364-0213(90)90002-E

Fei Miao, Shuo Han, Shan Lin, Qian Wang, John A. Stankovic, Abdeltawab Hendawi, Desheng Zhang, Tain He, & George J. Pappas. (2019). Data-Driven Robust Taxi Dispatch Under Demand Uncertainties. IEEE Transactions on Control Systems Technology, 27(1), 175–191. https://doi.org/10.1109/TCST.2017.2766042

Firmino, P., de Mattos, Neto P., & Ferreira, T. (2014). Correcting and combining time series forecasters. Neural Networks, 50, 1–11. https://doi.org/10.1016/j.neunet.2013.10.008

FiveThirtyEight. (2019). Uber Pickups in New York City. Retrieved from: https://www.kaggle.com/fivethirtyeight/uber-pickups-in-new-york-city

Geqay, R., & Liu, T. (1997). Nonlinear modeling and prediction with feedforward and recurrent networks. Physica D, 108, 119–134. https://doi.org/10.1016/S0167-2789(97)82009-X

Girshick, R., Donahue, J., Darrell, T., & Malik, J. (2016). Region-Based Convolutional Networks for Accurate Object Detection and Segmentation. In IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(1), 142–158. https://doi.org/10.1109/TPAMI.2015.2437384

Grinberg, J., Jain, A., & Vivek, A. (2014). Predicting Taxi Pickups in New York City. Retrieved from: http://robots.stanford.edu/cs221/2016/restricted/projects/vhchoksi/final.pdf.

Grossberg, S. Z. (2010). Neural Networks and Natural Intelligence. Cambridge, MA: MIT Press, 651 p. Retrieved from: https://mitpress.mit.edu/books/neural-networks-and-natural-intelligence

Haegglund, T. (1984). Adaptive control of systems subject to large parameter changes. Proc. IFAC 9th Triennial World Congress. Budapest, 993–998. https://doi.org/10.1016/S1474-6670(17)61102-9

Han, M., Xi, J., Xu, S., & Yin, F.-L. (2004). Prediction of chaotic time series based on the recurrent predictor neural network. IEEE Trans. Signal Processing, 52(12), 3409–3416. https://doi.org/10.1109/TSP.2004.837418

Haykin, S. (2008). Neural Networks and Learning Machines. New Jersey: Prentice Hall, 936 p. Retrieved from: https://cours.etsmtl.ca/sys843/REFS/Books/ebook_Haykin09.pdf

Hewamalage, H., Bergmeir, C., & Bandara, K. (January–March 2021). Recurrent Neural Networks for Time Series Forecasting: Current status and future directions. International Journal of Forecasting, 37(1), 388–427. https://doi.org/10.1016/j.ijforecast.2020.06.008

Hlybovets, M. M., & Oletsky, O. V. (2002). Artificial Intelligence. Kyiv: Kyiv-Mohyla Academy Publishing House, 364 p. [In Ukrainian].

Jordan, M. (1992). Constrained supervised learning. Journal of Mathematical Psychology, 36, 396-452. https://doi.org/10.1016/0022-2496(92)90029-7

Kennedy, R. K., Khoshgoftaar, T. M., Villanustre, F., & Humphrey, T. (2019). A parallel and distributed stochastic gradient descent implementation using commodity clusters. Journal of Big Data, 6(1), 16. https://doi.org/10.1186/s40537-019-0179-2

Kiani, K. (2005). Detecting business cycle asymmetries using artificial neural networks and time series models. Computational Economics, 26(1), 65–89. Retrieved from: https://link.springer.com/article/10.1007/s10614-005-7366-2

Kim, Yoon. (2014). Convolutional neural networks for sentence classification. IEMNLP, 1746–1751. Retrieved from: https://arxiv.org/abs/1408.5882

Kingma, D. P., & Ba, J. (2014). Adam: A method for stochastic optimization. arXiv – preprint arXiv: 1412.6980. Retrieved from: https://www.aminer.org/pub/5550415745ce0a409eb3a739/adam-a-method-for-stochastic-optimization

Krizhevsky, A. (2014). One weird trick for parallelizing convolutional neural networks. CoRR, abs/1404.5997. Retrieved from: https://arxiv.org/abs/1404.5997

Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2017). Imagenet classification with deep convolutional neural networks. Communications of the ACM, 60(6), 84–90. https://doi.org/10.1145/3065386

Lam, M. (2004). Neural network techniques for financial performance prediction: integrating fundamental and technical analysis. Decision Support Systems, 37(4), 567–581. https://doi.org/10.1016/S0167-9236(03)00088-5

Li, J., Nicolae, B., Wozniak, J., & Bosilca, G. (2019). Understanding scalability and fine-grain parallelism of synchronous data parallel training. IEEE/ACM Workshop – Machine Learning in High Performance Computing Environments (MLHPC) IEEE, pp. 1–8. https://doi.org/10.1109/MLHPC49564.2019.00006

Mandic, D. P., & Chambers, J. A. (2001). Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. Chichester: John Wiley&Sons, 285 p. https://doi.org/10.1002/047084535X

Moreira-Matias, Luis, et al. (2012). A predictive model for the passenger demand on a taxi network. International IEEE Conference on. IEEE, 15, 1014–1019. https://doi.org/10.1109/ITSC.2012.6338680

Mukai, N., & Yoden, N. (2012). Taxi Demand Forecasting Based on Taxi Probe Data by Neural Network. Intelligent Interactive Multimedia: Systems and Services. Ed. by Toyohide Watanabe et al. Smart Innovation, Systems and Technologies 14. Springer Berlin Heidelberg, pp. 589–597. https://doi.org/10.1007/978-3-642-29934-6_57

Önder, E., Fɪrat, B., & Hepsen, A. (2013). Forecasting Macroeconomic Variables using Artificial Neural Network and Traditional Smoothing Techniques. Journal of Applied Finance & Banking, 3(4), 73–104. https://doi.org/10.2139/ssrn.2264379

Pal, S., Ebrahimi, E., Zulfiqar, A., Fu, Y., Zhang, V., Migacz, S., Nellans, D., & Gupta, P. (2019). Optimizing multi-gpu parallelization strategies for deep learning training. EEE Micro, 39(5), 91–101. https://doi.org/10.1109/MM.2019.2935967

Pelinska-Olko, E., & Lewkowicz, M. (2018). Numerical prediction of steady state temperature based on transient measurements. MATEC Web of Conferences 240, 05024 (ICCHMT 2018). https://doi.org/10.1051/matecconf/201824005024

PyTorch. (2020). PyTorch documentation. Retrieved from: https://pytorch.org/docs/stable/index.html

Rahaman, M. S., Hamilton, M., & Salim, F. D. (2017). Queue Context Prediction Using Taxi Driver Knowledge. K-CAP 2017: Proceedings of the Knowledge Capture Conference, December 2017, Article No.: 35, 1–4. https://doi.org/10.1145/3148011.3154474

Ren, S., He, K., Girshick, R., & Sun, J. (2017). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. In IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(8), 1137–1149. https://doi.org/10.1109/TPAMI.2016.2577031

Sarkar, D., Bali, R., & Sharma, T. (2018). Practical Machine Learning with Python. Springer Science+Business Media. New York. Retrieved from: https://www.apress.com/gp/book/9781484232064

Schaller, B. (2005). A regression model of the number of taxicabs in US cities. Journal of Public Transportation, 8(5), 4. http://doi.org/10.5038/2375-0901.8.5.4

Schmidhuber, J. (2015). Deep Learning in Neural Networks: An Overview. Neural Networks 61: 85–117. arXiv:1404.7828. https://doi.org/10.1016/j.neunet.2014.09.003

Shakhovskaya, N. B., Kaminsky, R. M., & Vovk, O. B. (2018). Artificial intelligence systems: textbook. way. Lviv: Lviv Polytechnic, 392 p. [In Ukrainian].

Simonyan, K., & Zisserman, A. (2014). Very Deep Convolutional Networks for Large–Scale Image Recognition. CoRR, abs/1409.1556. https://doi.org/10.1.1.740.6937

Song, H. A., & Lee, S. Y. (2013). Hierarchical Representation Using NMF. Neural Information Processing. Lectures Notes in Computer Sciences 8226, (pp. 466–473). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-642-42054-2_58

Tzafestas, S., & Tzafestas, E. (2001). Computational intelligence techniques for short-term electric load forecasting. Journal of Intelligent and Robotic Systems, 31, 7–68. https://doi.org/10.1023/A:1012402930055

Wang, J., & Hu, S. (2002). Global asymptotic stability and global exponential stability of continuous-time recurrent neural networks. IEEE Trans. Automatic Control, 47, 802–807. https://doi.org/10.1109/TAC.2002.1000277

Williams, R. J., & Zipser, D. (1989). A Learning Algorithm for Continually Running Fully Recurrent Neural Networks. Neural Computation, 1, 270–280. https://doi.org/10.1162/neco.1989.1.2.270

Xu, J., Rahmatizadeh, R., Bölöni, L., & Turgut, D. (2018). Real-Time Prediction of Taxi Demand Using Recurrent Neural Networks. IEEE Transaction on Intelligent transport system, 19(8), 2572–2581. https://doi.org/10.1109/TITS.2017.2755684

YouTube. (2020). Consumer assessment of taxi services in large cities. Retrieved from: https://www.youtube.com/watch?v=RE2j1B7EdQM. [In Ukrainian].

Yuan, N. J., Zheng, Yu., Zhang, L., & Xie, X. (2013). T-Finder: A Recommender System for Finding Passengers and Vacant Taxis. IEEE Transactions on Knowledge and Data Engineering, 25(11), 2390–2403. https://doi.org/10.1109/TKDE.2012.153

Zhang Xiang, Zhao Junbo, LeCun Yann. (2015). Character-level convolutional networks for text classification. In Advances in Neural Information Processing Systems, pp. 649–657. Retrieved from: https://arxiv.org/abs/1509.01626

Опубліковано
2021-04-29
Як цитувати
Згоба, М. І., & Грицюк, Ю. І. (2021). Прогнозування попиту на пасажирські перевезення таксі методами нейронної мережі. Науковий вісник НЛТУ України, 31(3), 109-119. https://doi.org/10.36930/40310317
Розділ
Інформаційні технології

Статті цього автора (авторів), які найбільше читають