ВВЕДЕНИЕ 3
1. Обзор существующих алгоритмов машинного обучения для задачи ранжирования 5
1.1. Поточечный подход 5
1.2. Попарный подход 6
1.3. Посписочные методы 7
2. Теоретические основы алгоритмов ранжирования текстов 8
2.1. Предобработка входных данных 8
2.2. Нейронные сети 11
2.3. Метод опорных векторов 19
3. Практическая реализация 24
3.1. Обработка текста 24
3.2. Нейронные сети 29
3.3. Метод опорных векторов 37
ЗАКЛЮЧЕНИЕ 41
СПИСОК ЛИТЕРАТУРЫ 42
ПРИЛОЖЕНИЕ 45
Целью работы является решение задачи подбора новостей по заданной теме и ранжирование найденных новостей по степени их релевантности. Основным инструментом решения задачи должны являться методы машинного обучения. Для этого будут проанализированы и реализованы два алгоритма: нейронная сеть и метод опорных векторов. Оба они реализованы с попарным подходом решения задач ранжирования. Попарный подход был выбран, так как он показывает лучшие результаты на практике, чем, например, поточечный подход, да и предсказывание порядка двух документов по отношению друг к другу ближе к природе ранжирования, чем предсказывание оценки релевантности в отрыве от других документов в списке. И многие популярные алгоритмы, например, RankNet, LambdaRank и LambdaMART [2] [3] относятся к попарному подходу.
Для данной работы поставлены задачи:
Сбор и изучение материалов по существующим алгоритмам машинного обучения для задачи ранжирования:
поточечные методы;
попарные методы;
списочные методы.
Разбор полученной информации по ранжированию:
способы реализации;
различия;
преимущества и недостатки.
Реализация двух алгоритмов машинного обучения для задачи ранжирования:
нейронная сеть;
метод опорных векторов.
Тестирование.
Анализ результатов работы отобранных алгоритмов и выбор оптимального алгоритма.
' .
Применение методов машинного обучения при ранжировании и подборе новостей по заданной теме #9101441
Артикул: 9101441
- Предмет: Информационные системы и технологии
- Уникальность: 82% (Антиплагиат.ВУЗ)
- Разместил(-а): 185 Рамиль в 2019 году
- Количество страниц: 49
- Формат файла: docx
- Последняя покупка: 09.03.2023
1 999p.
1. Hang Li, A Short Introduction to Learning to Rank [Текст] / Hang Li // IEICE Transactions on Information and Systems. – 2011. – С.1854-1863.
2. What is the intuitive explanation of Learning to Rank and algorithms like RankNet, LambdaRank and LambdaMART? In what types of data/variables can these techniques be used? What are their strengths and limitations? [Электронный ресурс] – 2016. – URL: https://www.quora.com/What-is- the-intuitive-explanation-of-Learning-to-Rank-and-algorithms-like- RankNet-LambdaRank-and-LambdaMART-In-what-types-of-data-
variables-can-these-techniques-be-used-What-are-their-strengths-and- limitations/answer/Nikhil-Dandekar (дата обращения: 18.05.2019)
3. Chris Burges, Learning to Rank using Gradient Descent [Текст] / Chris Burges, Tal Shaked, Erin Renshaw // ICML, Proceedings of the 22nd international conference on Machine learning. – 2011. – С. 89-96.
4. Tie-Yan Liu, Learning to Rank for Information Retrieval [Текст] / Tie-Yan Liu. – Now Publishers Inc. – 2009. – 110 с.
5. Norbert Fuhr, Optimum polynomial retrieval functions based on the probability ranking principle [Текст] / Norbert Fuhr // ACM Transactions on Information Systems. – 1989. – С:183-204.
6. Cooper, William S., Probabilistic retrieval based on staged logistic regression [Текст] / Cooper, William S., Gey, Frederic C., Dabney, Daniel
P. // SIGIR '92 Proceedings of the 15th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – 1992.
– С:198-210.
7. Ping Li, Learning to Rank Using Classification and Gradient Boosting [Текст] / Ping Li, Chris J.C., Burges Qiang Wu // NIPS'07 Proceedings of the 20th International Conference on Neural Information Processing Systems. – 2007. – С:1-10.
8. Yunbo CAO, Adapting Ranking SVM to Document Retrieval [Текст] / Yunbo CAO, Jun XU, Tie-Yan LIU, Hang LI, Yalou HUANG, Hsiao-Wuen HON // SIGIR '06 Proceedings of the 29th annual international ACM SIGIR conference on Research and development in information retrieval. – 2006. – С:186-193.
9. Mike Taylor, SoftRank: Optimising Non-Smooth Rank Metrics [Текст] / Mike Taylor, John Guiver, Stephen Robertson, Tom Minka // WSDM '08 Proceedings of the 2008 International Conference on Web Search and Data Mining. – 2008. – С:77-86.
10. Jun Xu, AdaRank: a boosting algorithm for information retrieval [Текст] / Jun Xu // SIGIR '07 Proceedings of the 30th annual international ACM SIGIR conference on Research and development in information retrieval. – 2007. – С:391-398.
11. Zhe Cao, Learning to rank: from pairwise approach to listwise approach [Текст] / Zhe Cao, Tao Qin, Tie-Yan Liu, Ming-Feng Tsai, Hang Li // ICML '07 Proceedings of the 24th international conference on Machine learning. – 2007. – С:129-136.
12. Fen Xia, Listwise approach to learning to rank: theory and algorithm [Текст] / Fen Xia, Tie-Yan Liu, Jue Wang, Wensheng Zhang, Hang Li // ICML '08 Proceedings of the 25th international conference on Machine learning. – 2008. – С:1192-1199.
13. T. Mikolov, Efficient Estimation of Word Representations in Vector Space [Текст] / T. Mikolov, K. Chen, G. Corrado, J. Dean // ICLR 2013 conference submission. – 2013. – arXiv: 1301.3781.
14. T. Mikolov, Distributed Representations of Words and Phrases and their Compositionality / T. Mikolov, I. Sutskever, K. Chen, G. Corrado, J. Dean // NIPS'13 Proceedings of the 26th International Conference on Neural Information Processing Systems - Volume 2. – 2013. – С: 3111-3119.
15. Многослойный персептрон [Электронный ресурс] – 2016. – URL: http://www.aiportal.ru/articles/neural-networks/multi-perceptron.html (Дата обращения: 18.05.2019)
16. Нейросетевое моделирование: многослойный персептрон [Электронный ресурс] – 2004. – URL: http://www.ievbras.ru/ecostat/Kiril/Library/Book1/Content394/Content394. htm (Дата обращения: 18.05.2019)
17. Nitish Shirish Keskar, adaQN: An Adaptive Quasi-Newton Algorithm for Training RNNs / Nitish Shirish Keskar, Albert S. Berahas // ECML PKDD 2016 European Conference on Machine Learning and Knowledge Discovery in Databases - Volume 9851. – 2016. – С:1-16.
18. R. H. Byrd, A Stochastic Quasi-Newton Method for Large-Scale Optimization / R. H. Byrd, S. L. Hansen, Jorge Nocedal, and Y. Singer // SIAM Journal on Optimization 26. – 2014. – С:1008-1031.
19. Jascha Sohl-Dickstein, Fast large-scale optimization by unifying stochastic gradient and quasi-Newton methods / Jascha Sohl-Dickstein, Ben Poole, Surya Ganguli // ICML'14 Proceedings of the 31st International Conference on International Conference on Machine Learning. – 2014. – С:604-612.
20. Условия Вольфе – Википедия [Электронный ресурс] – 2013. – URL: https://ru.wikipedia.org/wiki/Условия_Вольфе (Дата обращения: 18.05.2019)
21. Outer product – Википедия [Электронный ресурс] – 2016. – URL: https://en.wikipedia.org/wiki/Outer_product (Дата обращения: 18.05.2019)
22. Линейная сепарабельность – Википедия [Электронный ресурс] – 2011.
– URL: https://ru.wikipedia.org/wiki/Линейная_сепарабельность (Дата обращения: 18.05.2019)
2. What is the intuitive explanation of Learning to Rank and algorithms like RankNet, LambdaRank and LambdaMART? In what types of data/variables can these techniques be used? What are their strengths and limitations? [Электронный ресурс] – 2016. – URL: https://www.quora.com/What-is- the-intuitive-explanation-of-Learning-to-Rank-and-algorithms-like- RankNet-LambdaRank-and-LambdaMART-In-what-types-of-data-
variables-can-these-techniques-be-used-What-are-their-strengths-and- limitations/answer/Nikhil-Dandekar (дата обращения: 18.05.2019)
3. Chris Burges, Learning to Rank using Gradient Descent [Текст] / Chris Burges, Tal Shaked, Erin Renshaw // ICML, Proceedings of the 22nd international conference on Machine learning. – 2011. – С. 89-96.
4. Tie-Yan Liu, Learning to Rank for Information Retrieval [Текст] / Tie-Yan Liu. – Now Publishers Inc. – 2009. – 110 с.
5. Norbert Fuhr, Optimum polynomial retrieval functions based on the probability ranking principle [Текст] / Norbert Fuhr // ACM Transactions on Information Systems. – 1989. – С:183-204.
6. Cooper, William S., Probabilistic retrieval based on staged logistic regression [Текст] / Cooper, William S., Gey, Frederic C., Dabney, Daniel
P. // SIGIR '92 Proceedings of the 15th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – 1992.
– С:198-210.
7. Ping Li, Learning to Rank Using Classification and Gradient Boosting [Текст] / Ping Li, Chris J.C., Burges Qiang Wu // NIPS'07 Proceedings of the 20th International Conference on Neural Information Processing Systems. – 2007. – С:1-10.
8. Yunbo CAO, Adapting Ranking SVM to Document Retrieval [Текст] / Yunbo CAO, Jun XU, Tie-Yan LIU, Hang LI, Yalou HUANG, Hsiao-Wuen HON // SIGIR '06 Proceedings of the 29th annual international ACM SIGIR conference on Research and development in information retrieval. – 2006. – С:186-193.
9. Mike Taylor, SoftRank: Optimising Non-Smooth Rank Metrics [Текст] / Mike Taylor, John Guiver, Stephen Robertson, Tom Minka // WSDM '08 Proceedings of the 2008 International Conference on Web Search and Data Mining. – 2008. – С:77-86.
10. Jun Xu, AdaRank: a boosting algorithm for information retrieval [Текст] / Jun Xu // SIGIR '07 Proceedings of the 30th annual international ACM SIGIR conference on Research and development in information retrieval. – 2007. – С:391-398.
11. Zhe Cao, Learning to rank: from pairwise approach to listwise approach [Текст] / Zhe Cao, Tao Qin, Tie-Yan Liu, Ming-Feng Tsai, Hang Li // ICML '07 Proceedings of the 24th international conference on Machine learning. – 2007. – С:129-136.
12. Fen Xia, Listwise approach to learning to rank: theory and algorithm [Текст] / Fen Xia, Tie-Yan Liu, Jue Wang, Wensheng Zhang, Hang Li // ICML '08 Proceedings of the 25th international conference on Machine learning. – 2008. – С:1192-1199.
13. T. Mikolov, Efficient Estimation of Word Representations in Vector Space [Текст] / T. Mikolov, K. Chen, G. Corrado, J. Dean // ICLR 2013 conference submission. – 2013. – arXiv: 1301.3781.
14. T. Mikolov, Distributed Representations of Words and Phrases and their Compositionality / T. Mikolov, I. Sutskever, K. Chen, G. Corrado, J. Dean // NIPS'13 Proceedings of the 26th International Conference on Neural Information Processing Systems - Volume 2. – 2013. – С: 3111-3119.
15. Многослойный персептрон [Электронный ресурс] – 2016. – URL: http://www.aiportal.ru/articles/neural-networks/multi-perceptron.html (Дата обращения: 18.05.2019)
16. Нейросетевое моделирование: многослойный персептрон [Электронный ресурс] – 2004. – URL: http://www.ievbras.ru/ecostat/Kiril/Library/Book1/Content394/Content394. htm (Дата обращения: 18.05.2019)
17. Nitish Shirish Keskar, adaQN: An Adaptive Quasi-Newton Algorithm for Training RNNs / Nitish Shirish Keskar, Albert S. Berahas // ECML PKDD 2016 European Conference on Machine Learning and Knowledge Discovery in Databases - Volume 9851. – 2016. – С:1-16.
18. R. H. Byrd, A Stochastic Quasi-Newton Method for Large-Scale Optimization / R. H. Byrd, S. L. Hansen, Jorge Nocedal, and Y. Singer // SIAM Journal on Optimization 26. – 2014. – С:1008-1031.
19. Jascha Sohl-Dickstein, Fast large-scale optimization by unifying stochastic gradient and quasi-Newton methods / Jascha Sohl-Dickstein, Ben Poole, Surya Ganguli // ICML'14 Proceedings of the 31st International Conference on International Conference on Machine Learning. – 2014. – С:604-612.
20. Условия Вольфе – Википедия [Электронный ресурс] – 2013. – URL: https://ru.wikipedia.org/wiki/Условия_Вольфе (Дата обращения: 18.05.2019)
21. Outer product – Википедия [Электронный ресурс] – 2016. – URL: https://en.wikipedia.org/wiki/Outer_product (Дата обращения: 18.05.2019)
22. Линейная сепарабельность – Википедия [Электронный ресурс] – 2011.
– URL: https://ru.wikipedia.org/wiki/Линейная_сепарабельность (Дата обращения: 18.05.2019)
Материалы, размещаемые в каталоге, с согласия автора, могут использоваться только в качестве дополнительного инструмента для решения имеющихся у вас задач,
сбора информации и источников, содержащих стороннее мнение по вопросу, его оценку, но не являются готовым решением.
Пользователь вправе по собственному усмотрению перерабатывать материалы, создавать производные произведения,
соглашаться или не соглашаться с выводами, предложенными автором, с его позицией.
Тема: | Применение методов машинного обучения при ранжировании и подборе новостей по заданной теме |
Артикул: | 9101441 |
Дата написания: | 14.06.2019 |
Тип работы: | Дипломная работа |
Предмет: | Информационные системы и технологии |
Оригинальность: | Антиплагиат.ВУЗ — 82% |
Количество страниц: | 49 |
Скрин проверки АП.ВУЗ приложен на последней странице.
В работе представлены только пояснительная записка и листинг программы. Самой программы нет
В работе представлены только пояснительная записка и листинг программы. Самой программы нет
Файлы артикула: Применение методов машинного обучения при ранжировании и подборе новостей по заданной теме по предмету информационные системы и технологии
Пролистайте "Применение методов машинного обучения при ранжировании и подборе новостей по заданной теме" и убедитесь в качестве
После покупки артикул автоматически будет удален с сайта до 21.02.2025
Посмотреть остальные страницы ▼
Честный антиплагиат!
Уникальность работы — 82% (оригинальный текст + цитирования, без учета списка литературы и приложений), приведена по системе Антиплагиат.ВУЗ на момент её написания и могла со временем снизиться. Мы понимаем, что это важно для вас, поэтому сразу после оплаты вы сможете бесплатно поднять её. При этом текст и форматирование в работе останутся прежними.
Гарантируем возврат денег!
Качество каждой готовой работы, представленной в каталоге, проверено и соответствует описанию. В случае обоснованных претензий мы гарантируем возврат денег в течение 24 часов.
Утром сдавать, а работа еще не написана?
Через 30 секунд после оплаты вы скачаете эту работу!
Сегодня уже купили 50 работ. Успей и ты забрать свою пока это не сделал кто-то другой!
ПРЕДЫДУЩАЯ РАБОТА
Обучающая программа для создателей сайтов
СЛЕДУЮЩАЯ РАБОТА
Разработка сервиса доступа к данным проекта сказкиповолжья.рф через мобильные приложения