Прогнозування попиту на пасажирські перевезення таксі методами нейронної мережі
Анотація
Розглянуто особливості прогнозування попиту на пасажирські перевезення таксі методами нейронної мережі за різних наборів вхідних даних, складу параметрів архітектури мережі, конфігурації апаратного забезпечення та його потужності. З'ясовано, що для зменшення тривалості очікування нових замовлень та відстані до клієнтів доцільно використовувати відповідні інформаційно-аналітичні системи, робота яких ґрунтується на штучному інтелекті. Це дасть змогу вирішити проблему попиту на перевезення таксі у відповідний період доби з врахуванням погодних умов, святкових, вихідних і робочих днів, а також пори року. Врахування ж наявних транспортних об'єктів – авіарейсів, потягів чи автобусів значно покращують роботу такої дорадчої системи. Використана в роботі гібридна архітектура нейро-фаззі мережі дає змогу одночасно вирішувати завдання короткотермінового прогнозування попиту на пасажирські перевезення таксі, а також проводити діагностику самої мережі, що полягає у виявленні різких змін властивостей обчислювального процесу. Для досягнення відповідної точності прогнозу в роботі опрацьовано набори вхідних даних у кількості 4,5 млн поїздок таксі. Для зменшення тривалості процедури навчання нейронної мережі організовано паралельні обчислення між різними вузлами мережі за допомогою графічних процесорів. Проведено навчання нейронної мережі на центральному процесорі, одному та двох графічних процесорах відповідно. З'ясовано, що організація паралельних обчислень на декількох графічних процесорах не завжди зменшує тривалість процедури навчання мережі, оскільки витрати на синхронізацію градієнтів між активними процесами значно перевищують користь від паралельних розрахунків. Встановлено, що за умови великого обсягу даних для організації паралельних обчислень та відповідної архітектури нейронної мережі можна досягти деякого зменшення тривалості процедури її навчання. Визначено, що зменшення тривалості процедури навчання нейронної мережі залежить від таких чинників: її архітектури, кількості параметрів навчання, конфігурації апаратного забезпечення та організації паралельних розрахунків.
Посилання
Babenko, A. V., Bodyansky, E. V., Popov, S. V., Slipchenko, E. V. (2009). Predictive-diagnostic recurrent neuro-fuzzy network in the problem of controlling electricity consumption. Information processing systems, 3(77), 2–5. Retrieved from: http://nbuv.gov.ua/UJRN/soi_2009_3_3. [In Russian].
Biao Leng, Heng Du, Jianyuan Wang, Li Li, & Zhang Xiong. (2016). Analysis of Taxi Drivers Behaviors Within a Battle Between Two Taxi Apps. IEEE Transactions on Intelligent Transportation Systems, 17(1), 296–300. https://doi.org/10.1109/TITS.2015.2461000
Billings, S. A. (2013). Nonlinear System Identification: NARMAX Methods in the Time, Frequency, and Spatio-Temporal Domains, Wiley, 574 p. Retrieved from: https://www.amazon.com/Nonlinear-System-Identification-Frequency-Spatio-Temporal/dp/1119943590
Bodyanskiy, Y., Popov, S., & Rybalchenko, T. (2008). Multilayer neuro-fuzzy network for short term electric load forecasting. Lecture Notes in Computer Science – Berlin, Heidelberg: Springer-Verlag, 5010, 339–348. Retrieved from: https://link.springer.com/chapter/10.1007/978-3-540-79709-8_34
Cichocki, A., & Unbehauen, R. (1993). Neural Networks for Optimization and Signal Processing. Stuttgart: Teubner, 526 p. Retrieved from: https://www.amazon.com/Neural-Networks-Optimization-Signal-Processing/dp/0471930105
Climate Data Online Search. (2020). National centers for environmental information. Retrieved from: https://www.ncdc.noaa.gov/cdo-web/search
Deng, L., & Yu, D. (2014). Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing, 7(3-4), 1–199. https://doi.org/10.1561/2000000039
Dhiraj, K. (2019). 10 reasons why PyTorch is the deep learning framework of the future. Retrieved from: https://heartbeat.fritz.ai/10-reasons-why-pytorch-is-the-deep-learning-framework-of-future-6788bd6b5cc2
Dsouza, J. (2020). What is a GPU and do you need one in Deep Learning? Retrieved from: https://towardsdatascience.com/what-is-a-gpu-and-do-you-need-one-in-deep-learning-718b9597aa0d
Du, K.-L., & Swamy, M.N.s. (2014). Multilayer Perceptrons: Architecture and Error Backpropagation. Neural Networks and Statistical Learning, pp. 83–126. https://doi.org/10.1007/978-1-4471-5571-3_4
Elman, J. L. (1990). Finding structure in time. Cognitive Science, 14, 179–211. https://doi.org/10.1016/0364-0213(90)90002-E
Fei Miao, Shuo Han, Shan Lin, Qian Wang, John A. Stankovic, Abdeltawab Hendawi, Desheng Zhang, Tain He, & George J. Pappas. (2019). Data-Driven Robust Taxi Dispatch Under Demand Uncertainties. IEEE Transactions on Control Systems Technology, 27(1), 175–191. https://doi.org/10.1109/TCST.2017.2766042
Firmino, P., de Mattos, Neto P., & Ferreira, T. (2014). Correcting and combining time series forecasters. Neural Networks, 50, 1–11. https://doi.org/10.1016/j.neunet.2013.10.008
FiveThirtyEight. (2019). Uber Pickups in New York City. Retrieved from: https://www.kaggle.com/fivethirtyeight/uber-pickups-in-new-york-city
Geqay, R., & Liu, T. (1997). Nonlinear modeling and prediction with feedforward and recurrent networks. Physica D, 108, 119–134. https://doi.org/10.1016/S0167-2789(97)82009-X
Girshick, R., Donahue, J., Darrell, T., & Malik, J. (2016). Region-Based Convolutional Networks for Accurate Object Detection and Segmentation. In IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(1), 142–158. https://doi.org/10.1109/TPAMI.2015.2437384
Grinberg, J., Jain, A., & Vivek, A. (2014). Predicting Taxi Pickups in New York City. Retrieved from: http://robots.stanford.edu/cs221/2016/restricted/projects/vhchoksi/final.pdf.
Grossberg, S. Z. (2010). Neural Networks and Natural Intelligence. Cambridge, MA: MIT Press, 651 p. Retrieved from: https://mitpress.mit.edu/books/neural-networks-and-natural-intelligence
Haegglund, T. (1984). Adaptive control of systems subject to large parameter changes. Proc. IFAC 9th Triennial World Congress. Budapest, 993–998. https://doi.org/10.1016/S1474-6670(17)61102-9
Han, M., Xi, J., Xu, S., & Yin, F.-L. (2004). Prediction of chaotic time series based on the recurrent predictor neural network. IEEE Trans. Signal Processing, 52(12), 3409–3416. https://doi.org/10.1109/TSP.2004.837418
Haykin, S. (2008). Neural Networks and Learning Machines. New Jersey: Prentice Hall, 936 p. Retrieved from: https://cours.etsmtl.ca/sys843/REFS/Books/ebook_Haykin09.pdf
Hewamalage, H., Bergmeir, C., & Bandara, K. (January–March 2021). Recurrent Neural Networks for Time Series Forecasting: Current status and future directions. International Journal of Forecasting, 37(1), 388–427. https://doi.org/10.1016/j.ijforecast.2020.06.008
Hlybovets, M. M., & Oletsky, O. V. (2002). Artificial Intelligence. Kyiv: Kyiv-Mohyla Academy Publishing House, 364 p. [In Ukrainian].
Jordan, M. (1992). Constrained supervised learning. Journal of Mathematical Psychology, 36, 396-452. https://doi.org/10.1016/0022-2496(92)90029-7
Kennedy, R. K., Khoshgoftaar, T. M., Villanustre, F., & Humphrey, T. (2019). A parallel and distributed stochastic gradient descent implementation using commodity clusters. Journal of Big Data, 6(1), 16. https://doi.org/10.1186/s40537-019-0179-2
Kiani, K. (2005). Detecting business cycle asymmetries using artificial neural networks and time series models. Computational Economics, 26(1), 65–89. Retrieved from: https://link.springer.com/article/10.1007/s10614-005-7366-2
Kim, Yoon. (2014). Convolutional neural networks for sentence classification. IEMNLP, 1746–1751. Retrieved from: https://arxiv.org/abs/1408.5882
Kingma, D. P., & Ba, J. (2014). Adam: A method for stochastic optimization. arXiv – preprint arXiv: 1412.6980. Retrieved from: https://www.aminer.org/pub/5550415745ce0a409eb3a739/adam-a-method-for-stochastic-optimization
Krizhevsky, A. (2014). One weird trick for parallelizing convolutional neural networks. CoRR, abs/1404.5997. Retrieved from: https://arxiv.org/abs/1404.5997
Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2017). Imagenet classification with deep convolutional neural networks. Communications of the ACM, 60(6), 84–90. https://doi.org/10.1145/3065386
Lam, M. (2004). Neural network techniques for financial performance prediction: integrating fundamental and technical analysis. Decision Support Systems, 37(4), 567–581. https://doi.org/10.1016/S0167-9236(03)00088-5
Li, J., Nicolae, B., Wozniak, J., & Bosilca, G. (2019). Understanding scalability and fine-grain parallelism of synchronous data parallel training. IEEE/ACM Workshop – Machine Learning in High Performance Computing Environments (MLHPC) IEEE, pp. 1–8. https://doi.org/10.1109/MLHPC49564.2019.00006
Mandic, D. P., & Chambers, J. A. (2001). Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. Chichester: John Wiley&Sons, 285 p. https://doi.org/10.1002/047084535X
Moreira-Matias, Luis, et al. (2012). A predictive model for the passenger demand on a taxi network. International IEEE Conference on. IEEE, 15, 1014–1019. https://doi.org/10.1109/ITSC.2012.6338680
Mukai, N., & Yoden, N. (2012). Taxi Demand Forecasting Based on Taxi Probe Data by Neural Network. Intelligent Interactive Multimedia: Systems and Services. Ed. by Toyohide Watanabe et al. Smart Innovation, Systems and Technologies 14. Springer Berlin Heidelberg, pp. 589–597. https://doi.org/10.1007/978-3-642-29934-6_57
Önder, E., Fɪrat, B., & Hepsen, A. (2013). Forecasting Macroeconomic Variables using Artificial Neural Network and Traditional Smoothing Techniques. Journal of Applied Finance & Banking, 3(4), 73–104. https://doi.org/10.2139/ssrn.2264379
Pal, S., Ebrahimi, E., Zulfiqar, A., Fu, Y., Zhang, V., Migacz, S., Nellans, D., & Gupta, P. (2019). Optimizing multi-gpu parallelization strategies for deep learning training. EEE Micro, 39(5), 91–101. https://doi.org/10.1109/MM.2019.2935967
Pelinska-Olko, E., & Lewkowicz, M. (2018). Numerical prediction of steady state temperature based on transient measurements. MATEC Web of Conferences 240, 05024 (ICCHMT 2018). https://doi.org/10.1051/matecconf/201824005024
PyTorch. (2020). PyTorch documentation. Retrieved from: https://pytorch.org/docs/stable/index.html
Rahaman, M. S., Hamilton, M., & Salim, F. D. (2017). Queue Context Prediction Using Taxi Driver Knowledge. K-CAP 2017: Proceedings of the Knowledge Capture Conference, December 2017, Article No.: 35, 1–4. https://doi.org/10.1145/3148011.3154474
Ren, S., He, K., Girshick, R., & Sun, J. (2017). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. In IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(8), 1137–1149. https://doi.org/10.1109/TPAMI.2016.2577031
Sarkar, D., Bali, R., & Sharma, T. (2018). Practical Machine Learning with Python. Springer Science+Business Media. New York. Retrieved from: https://www.apress.com/gp/book/9781484232064
Schaller, B. (2005). A regression model of the number of taxicabs in US cities. Journal of Public Transportation, 8(5), 4. http://doi.org/10.5038/2375-0901.8.5.4
Schmidhuber, J. (2015). Deep Learning in Neural Networks: An Overview. Neural Networks 61: 85–117. arXiv:1404.7828. https://doi.org/10.1016/j.neunet.2014.09.003
Shakhovskaya, N. B., Kaminsky, R. M., & Vovk, O. B. (2018). Artificial intelligence systems: textbook. way. Lviv: Lviv Polytechnic, 392 p. [In Ukrainian].
Simonyan, K., & Zisserman, A. (2014). Very Deep Convolutional Networks for Large–Scale Image Recognition. CoRR, abs/1409.1556. https://doi.org/10.1.1.740.6937
Song, H. A., & Lee, S. Y. (2013). Hierarchical Representation Using NMF. Neural Information Processing. Lectures Notes in Computer Sciences 8226, (pp. 466–473). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-642-42054-2_58
Tzafestas, S., & Tzafestas, E. (2001). Computational intelligence techniques for short-term electric load forecasting. Journal of Intelligent and Robotic Systems, 31, 7–68. https://doi.org/10.1023/A:1012402930055
Wang, J., & Hu, S. (2002). Global asymptotic stability and global exponential stability of continuous-time recurrent neural networks. IEEE Trans. Automatic Control, 47, 802–807. https://doi.org/10.1109/TAC.2002.1000277
Williams, R. J., & Zipser, D. (1989). A Learning Algorithm for Continually Running Fully Recurrent Neural Networks. Neural Computation, 1, 270–280. https://doi.org/10.1162/neco.1989.1.2.270
Xu, J., Rahmatizadeh, R., Bölöni, L., & Turgut, D. (2018). Real-Time Prediction of Taxi Demand Using Recurrent Neural Networks. IEEE Transaction on Intelligent transport system, 19(8), 2572–2581. https://doi.org/10.1109/TITS.2017.2755684
YouTube. (2020). Consumer assessment of taxi services in large cities. Retrieved from: https://www.youtube.com/watch?v=RE2j1B7EdQM. [In Ukrainian].
Yuan, N. J., Zheng, Yu., Zhang, L., & Xie, X. (2013). T-Finder: A Recommender System for Finding Passengers and Vacant Taxis. IEEE Transactions on Knowledge and Data Engineering, 25(11), 2390–2403. https://doi.org/10.1109/TKDE.2012.153
Zhang Xiang, Zhao Junbo, LeCun Yann. (2015). Character-level convolutional networks for text classification. In Advances in Neural Information Processing Systems, pp. 649–657. Retrieved from: https://arxiv.org/abs/1509.01626
Авторське право (c) 2018 http://creativecommons.org/licenses/by/4.0

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.