1. Белов, А.А. Применение метода Dropout для предотвращения переобучения / А.А. Белов // Известия вузов. Проблемы программирования. – 2016. – №2. – С. 54-61.
2. Воронцов, К.В. Математические методы обучения по прецедентам / К.В. Воронцов. – Учебное пособие. – М.: Физматлит, 2012. – С. 45-90.
3. Горбачева, Е.Ю. Оптимизация алгоритмов обучения нейронных сетей / Е.Ю. Горбачева // Программирование и компьютерные технологии. – 2018. – №5. – С. 24-39.
4. Коновалов, М.Д. Глубокое обучение в задачах обработки текста / М.Д. Коновалов // Искусственный интеллект. – 2017. – №4. – С. 288-297.
5. Никифоров, М.С. Регуляризация в глубоком обучении / М.С. Никифоров // Компьютерные исследования и моделирование. – 2018. – №2. – С. 277-290.
6. Оселедец, И.В. Методы глубокого обучения в задачах обработки изображений / И.В. Оселедец // Вестник МГТУ им. Н.Э. Баумана. – 2017. – №2. – С. 56-72.
7. Панченко, А.В. Нейронные сети: полный курс / А.В. Панченко. – Издательство «Питер». – 2019. – С. 10-150.
8. Сергеев, Я.П. TensorFlow и Keras в решении прикладных задач / Я.П. Сергеев // Информационные технологии. – 2019. – №1. – С. 42-50.
9. Терехов, В.И. PyTorch в примерах и задачах / В.И. Терехов // Журнал программирования. – 2020. – №3. – С. 11-25.
10. Черникова, О.И. Основы нейронных сетей / О.И. Черникова // Издательство «Техносфера». – 2008. – С. 5-30.
11. Bottou, L. Large-scale machine learning with stochastic gradient descent / L. Bottou // Proceedings of COMPSTAT'2010. – Springer. – 2010. – С. 177-186.
12. Chollet, F. Keras / F. Chollet. – GitHub repository. – 2015. – [Электронный ресурс]. – URL: https://github.com/keras-team/keras (дата обращения: 06.10.2023).
13. Goodfellow, I., Bengio, Y., & Courville, A. Deep learning / I. Goodfellow, Y. Bengio, A. Courville. – MIT Press. – 2016. – С. 100-150.
14. He, K., Zhang, X., Ren, S., & Sun, J. Deep residual learning for image recognition / K. He, X. Zhang, S. Ren, J. Sun // Proceedings of the IEEE conference on computer vision and pattern recognition. – 2016. – С. 770-778.
15. Hochreiter, S. & Schmidhuber, J. Long short-term memory / S. Hochreiter, J. Schmidhuber // Neural computation. – 1997. – Vol. 9(8). – С. 1735-1780.
16. Kingma, D. & Ba, J. Adam: A method for stochastic optimization / D. Kingma, J. Ba // arXiv preprint arXiv:1412.6980. – 2014. – С. 8-22.
17. LeCun, Y., Bengio, Y., & Hinton, G. Deep learning / Y. LeCun, Y. Bengio, G. Hinton // Nature. – 2015. – Vol. 521. – С. 436-444.
18. Paszke, A., Gross, S., Chintala, S., & Chanan, G. PyTorch: Tensors and dynamic neural networks in Python with strong GPU acceleration / A. Paszke, S. Gross, S. Chintala, G. Chanan. – PyTorch. – 2017. – С. 1-10.
19. Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., & Salakhutdinov, R. Dropout: A simple way to prevent neural networks frоm overfitting / N. Srivastava et al. // Journal of Machine Learning Research. – 2014. – Vol. 15. – С. 1929-1958.
20. Sutton, R. S. & Barto, A. G. Reinforcement learning: An introduction / R. S. Sutton, A. G. Barto. – MIT press. – 2018. – С. 55-105.